时长:
50分钟
播放:
1,154
发布:
5天前
主播...
简介...
📝 本期播客简介
本期我们克隆了:AI Engineer Workshop 深度技术分享 Jack Morris: Stuffing Context is not Memory, Updating Weights is
目前的 AI 助手虽然博学,但面对你公司的私有文档或最新的行业代码时,往往表现得像个“局外人”。本期嘉宾 Jack Morris 是一位顶尖的 AI 研究员,他曾任职于 Meta,目前正致力于解决 AI 记忆的终极难题。在这场干货满满的分享中,Jack 挑战了目前被视为行业标准的 RAG(检索增强生成)技术,提出了一个更具野心的方向:把知识直接“训练”进模型的神经元里。你会听到为什么超长上下文往往是一种“欺诈”,为什么你的向量数据库可能存在安全漏洞,以及如何利用合成数据让模型真正“吃透”你的私有知识库。这不仅是一场技术演进的预判,更是一次关于 AI 架构如何从“查字典”转向“长脑子”的深度探索。
👨⚕️ 本期嘉宾
Jack Morris,资深 AI 研究员,康奈尔大学博士生。他曾任职于 Meta AI 团队,专注于大语言模型的安全性、记忆机制及微调技术。他目前正创办一家专注于“可教模型”的 AI 初创公司,致力于让模型能够高效、无损地吸收特定领域的专业知识。
⏱️ 时间戳
00:00 开场 & 嘉宾背景介绍
AI 记忆的现状与困境
02:00 ChatGPT 的盲区:为什么它不知道你公司的门禁卡密码?
04:30 知识注入的三条路径:上下文、RAG 与训练权重
06:50 “上下文欺诈”:为什么模型没崩溃,但推理失效了?
08:43 成本与速度的博弈:Transformer 架构的二次方诅咒
拆解 RAG 的根本局限
10:18 向量数据库:今天的文件系统,而非未来的文件系统
12:39 Embedding 的安全隐患:你的私有数据能被轻易还原吗?
14:02 缺乏适应性:为什么信用卡文档在向量空间里都挤在一起?
17:28 RAG 的推理天花板:它无法关联那些“隐含”在文档间的逻辑
把知识训练进权重(Training into Weights)
19:45 为什么最笨的微调方法会让模型变“傻”?
22:46 3M 财报实验:当模型开始机械复述,它就失去了诗意
24:58 破局之道:利用合成数据打破“过拟合”魔咒
27:46 “自适应语言模型”:让 AI 自己决定该学什么
技术架构的终极对决
28:36 灾难性遗忘:如何让模型学新知识而不丢旧本事?
30:04 LoRa vs. 全量微调:谁更擅长“少学多留”?
31:48 记忆层(Memory Layers):给模型装一个可微分的查找表
34:53 规模化部署:如何为一千万个用户提供个性化模型?
深度问答:RAG 真的会被取代吗?
36:46 经济账:什么时候该用 RAG,什么时候该训练?
40:48 联邦学习的回归:小参数更新带来的新机会
42:45 “零提示词”理想:把百万 token 压缩进权重的诱惑
46:06 哲学争论:模型应该是全能天才,还是熟练的工具使用者?
🌟 精彩内容
💡 警惕“上下文欺诈”
Jack 提出了一个扎心的观察:模型在塞进大量 token 时“不崩溃”,和它能进行“有效推理”是两码事。随着上下文增加,模型解决问题的能力往往会呈指数级下降。
🛠️ Embedding 并不是保险箱
很多人认为只存储 Embedding(向量)是安全的,但 Jack 的研究证明,通过特定算法可以从向量中还原出 90% 以上的原始文本。这对处理敏感数据的企业来说是一个巨大的安全警示。
🚀 合成数据:微调的“点金石”
直接在私有文档上进行“下一个词预测”训练,往往会导致模型只会复述原句。Jack 发现,先让 AI 把文档转化成大量的问答对、重述文本等合成数据,再进行微调,效果甚至能超过 GPT-4。
💻 LoRa 的“中庸之道”
在对比多种微调技术时,Jack 指出 LoRa(低秩自适应)的精髓在于“学得少,忘得也少”。它对模型原有知识的破坏最小,且在强化学习(RL)场景下,甚至只需训练 14 个参数就能达到极高准确率。
❤️ 走向“专业化模型”
与其追求一个知道塔吉克斯坦省会、又知道你公司代码的通用模型,未来的趋势可能是极度专业化的模型——它们在特定领域极其敏锐,而在无关领域则保持“无知”以节省容量。
🌐 播客信息补充
翻译克隆自:AI Engineer Workshop:Memory in LLMs_ Weights and Activations - Jack Morris, Cornell
本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的
使用 AI 进行翻译,因此可能会有一些地方不通顺;
如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
本期我们克隆了:AI Engineer Workshop 深度技术分享 Jack Morris: Stuffing Context is not Memory, Updating Weights is
目前的 AI 助手虽然博学,但面对你公司的私有文档或最新的行业代码时,往往表现得像个“局外人”。本期嘉宾 Jack Morris 是一位顶尖的 AI 研究员,他曾任职于 Meta,目前正致力于解决 AI 记忆的终极难题。在这场干货满满的分享中,Jack 挑战了目前被视为行业标准的 RAG(检索增强生成)技术,提出了一个更具野心的方向:把知识直接“训练”进模型的神经元里。你会听到为什么超长上下文往往是一种“欺诈”,为什么你的向量数据库可能存在安全漏洞,以及如何利用合成数据让模型真正“吃透”你的私有知识库。这不仅是一场技术演进的预判,更是一次关于 AI 架构如何从“查字典”转向“长脑子”的深度探索。
👨⚕️ 本期嘉宾
Jack Morris,资深 AI 研究员,康奈尔大学博士生。他曾任职于 Meta AI 团队,专注于大语言模型的安全性、记忆机制及微调技术。他目前正创办一家专注于“可教模型”的 AI 初创公司,致力于让模型能够高效、无损地吸收特定领域的专业知识。
⏱️ 时间戳
00:00 开场 & 嘉宾背景介绍
AI 记忆的现状与困境
02:00 ChatGPT 的盲区:为什么它不知道你公司的门禁卡密码?
04:30 知识注入的三条路径:上下文、RAG 与训练权重
06:50 “上下文欺诈”:为什么模型没崩溃,但推理失效了?
08:43 成本与速度的博弈:Transformer 架构的二次方诅咒
拆解 RAG 的根本局限
10:18 向量数据库:今天的文件系统,而非未来的文件系统
12:39 Embedding 的安全隐患:你的私有数据能被轻易还原吗?
14:02 缺乏适应性:为什么信用卡文档在向量空间里都挤在一起?
17:28 RAG 的推理天花板:它无法关联那些“隐含”在文档间的逻辑
把知识训练进权重(Training into Weights)
19:45 为什么最笨的微调方法会让模型变“傻”?
22:46 3M 财报实验:当模型开始机械复述,它就失去了诗意
24:58 破局之道:利用合成数据打破“过拟合”魔咒
27:46 “自适应语言模型”:让 AI 自己决定该学什么
技术架构的终极对决
28:36 灾难性遗忘:如何让模型学新知识而不丢旧本事?
30:04 LoRa vs. 全量微调:谁更擅长“少学多留”?
31:48 记忆层(Memory Layers):给模型装一个可微分的查找表
34:53 规模化部署:如何为一千万个用户提供个性化模型?
深度问答:RAG 真的会被取代吗?
36:46 经济账:什么时候该用 RAG,什么时候该训练?
40:48 联邦学习的回归:小参数更新带来的新机会
42:45 “零提示词”理想:把百万 token 压缩进权重的诱惑
46:06 哲学争论:模型应该是全能天才,还是熟练的工具使用者?
🌟 精彩内容
💡 警惕“上下文欺诈”
Jack 提出了一个扎心的观察:模型在塞进大量 token 时“不崩溃”,和它能进行“有效推理”是两码事。随着上下文增加,模型解决问题的能力往往会呈指数级下降。
🛠️ Embedding 并不是保险箱
很多人认为只存储 Embedding(向量)是安全的,但 Jack 的研究证明,通过特定算法可以从向量中还原出 90% 以上的原始文本。这对处理敏感数据的企业来说是一个巨大的安全警示。
🚀 合成数据:微调的“点金石”
直接在私有文档上进行“下一个词预测”训练,往往会导致模型只会复述原句。Jack 发现,先让 AI 把文档转化成大量的问答对、重述文本等合成数据,再进行微调,效果甚至能超过 GPT-4。
💻 LoRa 的“中庸之道”
在对比多种微调技术时,Jack 指出 LoRa(低秩自适应)的精髓在于“学得少,忘得也少”。它对模型原有知识的破坏最小,且在强化学习(RL)场景下,甚至只需训练 14 个参数就能达到极高准确率。
❤️ 走向“专业化模型”
与其追求一个知道塔吉克斯坦省会、又知道你公司代码的通用模型,未来的趋势可能是极度专业化的模型——它们在特定领域极其敏锐,而在无关领域则保持“无知”以节省容量。
🌐 播客信息补充
翻译克隆自:AI Engineer Workshop:Memory in LLMs_ Weights and Activations - Jack Morris, Cornell
本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的
使用 AI 进行翻译,因此可能会有一些地方不通顺;
如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
评价...
空空如也
小宇宙热门评论...
暂无小宇宙热门评论