视频聚合搜索 - 壹搜网为您找到"

XelandOne/llm-journaling

"相关结果

Claude Code 联动 Obsidian:解锁无限记忆模式,彻底解决 Claude 遗忘痛点!

建议收藏: ①xiaohuminiAPI中转:xiaohumini.site,0.8r/1$,拥有400+大模型API,已上架gemini3模型; ②在线生图、视频生成工具https://creator.vertexgen.net,支持接入中转api; ③批发API中转站:aifast.site(备用域名chat.aifast.site),0.4r/1$,sora2(0.1r/次),香蕉2pro(0.1r/张,每天10万张以上可谈优惠),veo,grokvideo也有,欢迎体验; ④Windows一键安装
www.bilibili.com

GoogleCloudNext'18_腾讯视频}

腾讯视频
v.sogou.com

每日github项目分享——本地运行各种 LLM 的工具

项目地址:https://github.com/ollama/ollama
www.bilibili.com

EMNLP 2024 Tutorial:Language Agents:Foundations,Prospects,and Risks

https://language-agent-tutorial.github.io/
www.bilibili.com

AAAI2025 TimeCMA :凭跨模态对齐狂甩基线 52%,成时间序列学术新宠!

实验结果更是炸裂到不行!在 ETT、FRED、Weather 等 8 个超有代表性的真实数据集上,TimeCMA 火力全开,把 Prompt-based LLMs、Transformer 这些老牌基线模型按在地上 “摩擦”!平均 MSE 和 MAE 直接提升 11.9%-16.1%! 消融实验也超有料!把跨模态对齐模块拿掉,性能直接断崖式下跌,实锤它是 “大腿中的大腿”!单独用 LLM 分支或时间序列分支,效果都大打折扣,双分支联合才是 “王炸组合” 效率这块,TimeCMA 更是遥遥领先!参数规模更小、
www.bilibili.com

ICLR'25杰出论文|Learning Dynamics of LLM Finetuning

不想看大几十页的PDF的小伙伴们,作者用15分钟中文帮大家把这篇杰出论文核心内容讲明白~ 核心内容简介: 1. 提出了一个微观的观察理念(模型学习xu会如何影响它对xo的预测)来理解LLM的不同finetuning算法; 2. 可证明的squeezing effect:在分布的valley region加负梯度会让模型变得很奇怪; 3. 用上述两个工具,解释了LLM在SFT,off-policy DPO等算法中的一些反直觉现象。 文章链接:https://arxiv.org/abs/2407.10490
www.bilibili.com

Transformer之父「Llion Jones」警告:Transformer正在成为AI的囚笼❗️当所有人都在堆算力,真正的突破可能正在消失

AI编程课 >> BV1Gy6WYaEhD AI视频课 >> BV16TqZBWEpu AI自动化课 >> BV1ciCiB2E2s 鸿蒙HMOS代码工坊 >> BV14uvhBnEFc 白嫖「AI GPT5.0 turbo大模型编程/论文/聊天」工具 >> BV13c411i7TT 宝藏学习「IT/科技/计算机/升学/就业/人文/财经」 >> BV1BJ41157PJ 如果有人告诉你,那个让ChatGPT风靡全球、开启大模型时代的核心技术——Transformer架构,正在逐渐成为阻碍人工智能下一次飞
www.bilibili.com

【NeurIPS2024】AutoTimes:LLM让时间序列预测“起飞”!

今天将给大家分享的是一个基于大语言模型的自回归时间序列预测模型。视频最后还有论文总结,带你快速掌握重点内容,一定要坚持看到最后。现有时间序列模型难以应对多变场景和利用辅助信息,这需要时间序列基础模型,但其发展受限于预训练数据量和可扩展性。研究表明,大语言模型在处理序列和生成方面与时间序列有共通之处,但其自回归特性和解码器结构未被充分考虑,导致模型能力利用不足。为了充分发挥大语言模型的能力,我们提出了AutoTimes,将大语言模型重塑为自回归时间序列预测器。它将时间序列投影到语言token嵌入空间,并自回
www.bilibili.com