时长:
60分钟
播放:
1,611
发布:
3周前
主播...
简介...
📝 本期播客简介
本期节目,我们克隆了 "I Invented the Transformer. Now I'm Replacing It."
邀请到了Transformer的共同发明人Llion Jones,以及Sakana AI研究科学家Luke Darlow。Llion Jones提出了一个大胆的观点:Transformer架构(作为ChatGPT和几乎所有现代AI的核心)可能正在将整个行业困在一个“局部最优解”中,阻碍我们发现真正的智能推理能力。他将深入剖析这一论点,并与Luke Darlow共同介绍他们最新的研究成果——“连续思维机器”(Continuous Thinker Machine, CTM),这项创新技术有望引领AI迈向新的前沿。本期节目将是一场关于AI未来方向的深度对话,探讨如何跳出现有框架,拥抱更具生物启发性和适应性的智能范式。
文字版精华见微信公众号(点击跳转)
👨⚕️ 本期嘉宾
Llion Jones:Transformer的共同发明人之一,Sakana AI联合创始人。他曾是Google Brain团队的核心成员,对Transformer的诞生和发展做出了奠基性贡献。现在,他致力于探索超越Transformer的下一代AI架构。
Luke Darlow:Sakana AI研究科学家,主要研究领域是“连续思维机器”(CTM)。他主导了CTM的研发,并将其推向了今年的NeurIPS大会焦点论文。
⏱️ 时间戳
00:00 开场 & 播客简介
摆脱Transformer的“引力盆地”
00:00:00 Llion Jones:告别Transformer:过度饱和领域中的新探索
00:00:27 Luke Darlow:连续思维机器:具备自适应计算能力的新循环模型
00:00:56 Llion Jones:AI研究自由度的丧失:从自下而上到受限创新
00:01:40 Llion Jones:大规模演化搜索的潜力:算力投入与未被探索的方向
00:02:07 主持人:Sakana AI的核心理念:拥抱兴趣梯度,拒绝“灰色粘质”
00:02:57 Llion Jones:守护研究自由:公司发展中面临的挑战与哲学坚守
00:03:31 Llion Jones:削减自由的流程:商业压力与投资回报的预期
00:04:40 主持人:“技术捕获”现象:Transformer的成功与商业化压力
00:05:22 Llion Jones:局部最优解的困境:被大语言模型“捕获”的行业
00:05:37 Llion Jones:RNN时代的启示:技术突破与微小改进的循环
00:07:24 Llion Jones:Transformer的碾压式突破:旧研究的“多余”与当下的“浪费”
00:08:48 主持人:成功受害者:硬件/架构彩票与多样化技能的消亡
00:09:45 Llion Jones:人才困境:研究人员缺乏自由而非才华
00:10:24 主持人:新架构难以普及:通用表示与规模化路径的诱惑
00:11:02 Llion Jones:超越Transformer:需要“碾压式更好”才能推动行业转向
00:12:16 Llion Jones:引力效应:规模化带来的性能提升掩盖了架构创新
00:12:34 主持人:捷径学习与“破碎纠缠表示”:现有架构的修修补补
00:13:08 Llion Jones:连续思维机器的尝试:解决“参差不齐的智能”
00:13:50 Llion Jones:神经网络的“强大”与“强迫”:它们并非“想要”如此
00:14:14 Llion Jones:智能矩阵求幂:螺旋线数据的“自然”表示与理解
00:15:33 Llion Jones:ReLU模型的局限:蛮力拟合与缺乏真正理解
00:16:02 主持人:神经网络样条理论:描摹模式与延续模式的差异
00:17:20 Llion Jones:视频生成模型的困境:蛮力解决与缺乏深层理解
00:18:15 主持人:NeurIPS焦点论文:连续思维机器的创新与认可
连续思维机器(CTM)深度解析
00:18:31 Llion Jones:CTM的诞生:受生物学启发,神经元同步的简单想法
00:19:20 Llion Jones:打磨论文:无需匆忙,专注科学研究本身
00:20:02 主持人:AI驱动的进步:模型能否自主进行科学研究?
00:20:14 Llion Jones:AI科学家:端到端研究系统与人机协作的未来
00:21:22 主持人:监督的必要性:路径依赖与人类兴趣的延续
00:21:48 Llion Jones:引导与协作:AI研究如同指导实习生
00:22:18 主持人:人类的经验与直觉:AI模型能否习得?
00:22:55 Llion Jones:超越人类:AI在特定领域超越人类的案例(如象棋)
00:23:12 主持人:CTM介绍:Luke Darlow的自我介绍与项目历程
00:23:48 Luke Darlow:CTM的三大创新点:内部思维维度、神经元级模型、同步表示
00:24:15 Luke Darlow:迷宫任务:CTM的“Hello World”问题与序列化推理
00:25:19 Luke Darlow:神经元的重新定义:从ReLU到“小模型”
00:25:57 Luke Darlow:同步作为表示:捕捉“想法”在时间中的存在
00:26:47 主持人:CTM与规划:计算上的差异与图灵机的边界
00:27:29 Luke Darlow:迷宫问题的分解:自动课程系统与行为理解
00:28:46 主持人:自适应计算:步数敏感度、不确定性与无界步数
00:30:05 Luke Darlow:不确定性与步数:ImageNet分类任务中的自然涌现
00:31:00 主持人:神经元级模型与同步:M L P神经元与内积驱动
00:31:18 Luke Darlow:神经元级模型(NLMs):历史激活值与单一输出
00:32:09 Luke Darlow:同步的定义:时间序列的点积与神经元间关系
00:32:30 Luke Darlow:生物学与深度学习的平衡:NLMs的中间方案
00:33:19 主持人:扩展性与稳定性:同步矩阵的时间复杂度与子采样
00:33:33 Luke Darlow:CTM的稳定性:对梯度传播的帮助
00:34:00 Luke Darlow:表示空间的丰富性:D的二次方量级与下游计算
00:34:34 主持人:指数衰减率:不同时间尺度的同步
00:35:06 Luke Darlow:时间尺度差异:捕捉神经元快速与缓慢同步
00:35:42 Luke Darlow:表示空间的进一步丰富:细微调整与更多可能
CTM的未来与AI推理
00:36:19 主持人:CTM在推理任务上的优势:离散、稀疏领域与样本效率
00:36:40 Luke Darlow:内部化推理:思维链与序列化运行
00:37:06 Luke Darlow:CTM的灵活性:同步与多层次时间表示
00:37:34 主持人:CTM与神经图灵机:隐空间推理与任务展开
00:37:56 Luke Darlow:ImageNet任务的启示:分解问题与自然分割
00:39:00 Luke Darlow:模型校准:CTM的完美校准与传统模型的缺陷
00:40:10 Llion Jones:自适应计算时间的自然涌现:无需额外惩罚项
00:41:35 Llion Jones:沿着“有趣”的梯度:以架构为驱动的探索
00:42:06 主持人:路径依赖与“复杂化”:构建世界模型与主动推理
00:42:33 Luke Darlow:模棱两可的问题:幻觉与世界分解的不同方式
00:43:27 Luke Darlow:分解问题:自然且无需“黑科技”的方法
00:43:55 主持人:捷径问题:成本函数与推理的对齐
00:44:23 Luke Darlow:架构的意外适用性:向大脑与自然致敬
00:45:04 Luke Darlow:鼓励年轻研究者:追随热情,探索未知
00:45:36 主持人:CTM与下一代语言模型:迷宫与模糊性
00:46:07 Luke Darlow:CTM的探索行为:回溯与多路径尝试
00:47:08 Luke Darlow:迷人的“蛙跳”行为:时间约束下的新算法
00:48:06 Luke Darlow:人类思维的启示:受限与开放环境下的思考
00:48:18 主持人:群体方法与集体智能:纵向与横向扩展
00:48:36 Luke Darlow:记忆与长期记忆:共享记忆与文化记忆
00:49:34 Luke Darlow:通用人工智能的关键要素:记忆的构建
Sudoku Bench:一个全新的推理基准测试
00:50:09 Llion Jones:Sudoku Bench数据集:推广的困难与独特之处
00:50:33 Llion Jones:变体数独:自然语言理解与元推理的挑战
00:51:18 Llion Jones:多样性与推理能力:攻克基准测试的意义
00:51:46 Llion Jones:GPT-5o的性能:仍无法解决人类谜题
00:52:04 Llion Jones:数据集的灵感:Andrej Karpathy的“思维轨迹”
00:52:36 Llion Jones:Cracking the Cryptic:高质量人类推理数据的来源
00:53:37 Llion Jones:基准测试的难度:模仿学习的挑战
00:53:46 Llion Jones:强化学习的局限:稀疏空间与特定推理
00:55:00 主持人:知识的“演绎闭包”:推理之树与乐高积木
00:55:51 Llion Jones:实时学习与元任务:对推理进行推理
00:56:08 Llion Jones:专业人士的直觉:推理乐高积木的识别
00:57:00 Llion Jones:人类的回溯行为:AI模型中缺失的环节
00:57:15 主持人:主题间的系统发育距离:集体智能的优势
00:57:32 Llion Jones:强化学习的失效:稀疏空间与特定推理的挑战
00:58:08 招聘信息与结束语
00:58:08 主持人:Sakana AI招聘:为优秀人才提供梦想工作
00:58:21 Llion Jones:研究自由的承诺:来日本,做有趣且重要的事
00:58:43 主持人:日本文化:世界最文明的文化之一
00:58:51 主持人:感谢嘉宾:千载难逢的机会
🌐 播客信息补充
本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的
使用 AI 进行翻译,因此可能会有一些地方不通顺;
如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
【活动推荐💡】
今年冬天,北京有你最值得你赶一趟的现场:极客公园创新大会 2026。
在活动的两天的时间里,我们将汇聚这个时代最「有料」并且敢于说「非共识」的人--何小鹏、刘靖康、刘作虎、王小川......来这里:
👂你会听见下一个技术周期「原点」的声音
🤝结识正在定义新行业的人
🧑💻找到在 2026 你换一个团队或者启动一个创业旅程的理由
12 月 6 日-7 日,北京 798艺术区,我们不见不散!速戳链接,了解大会详情👉极客公园创新大会 2026 首批嘉宾揭晓!https://mp.weixin.qq.com/s/j0eRzCvLmkNvq_rrR428Zg
🔥「极客公园创新大会 2026」门票火热发售中,主会场早鸟限时七折优惠,票量有限,先到先得!
本期节目,我们克隆了 "I Invented the Transformer. Now I'm Replacing It."
邀请到了Transformer的共同发明人Llion Jones,以及Sakana AI研究科学家Luke Darlow。Llion Jones提出了一个大胆的观点:Transformer架构(作为ChatGPT和几乎所有现代AI的核心)可能正在将整个行业困在一个“局部最优解”中,阻碍我们发现真正的智能推理能力。他将深入剖析这一论点,并与Luke Darlow共同介绍他们最新的研究成果——“连续思维机器”(Continuous Thinker Machine, CTM),这项创新技术有望引领AI迈向新的前沿。本期节目将是一场关于AI未来方向的深度对话,探讨如何跳出现有框架,拥抱更具生物启发性和适应性的智能范式。
文字版精华见微信公众号(点击跳转)
👨⚕️ 本期嘉宾
Llion Jones:Transformer的共同发明人之一,Sakana AI联合创始人。他曾是Google Brain团队的核心成员,对Transformer的诞生和发展做出了奠基性贡献。现在,他致力于探索超越Transformer的下一代AI架构。
Luke Darlow:Sakana AI研究科学家,主要研究领域是“连续思维机器”(CTM)。他主导了CTM的研发,并将其推向了今年的NeurIPS大会焦点论文。
⏱️ 时间戳
00:00 开场 & 播客简介
摆脱Transformer的“引力盆地”
00:00:00 Llion Jones:告别Transformer:过度饱和领域中的新探索
00:00:27 Luke Darlow:连续思维机器:具备自适应计算能力的新循环模型
00:00:56 Llion Jones:AI研究自由度的丧失:从自下而上到受限创新
00:01:40 Llion Jones:大规模演化搜索的潜力:算力投入与未被探索的方向
00:02:07 主持人:Sakana AI的核心理念:拥抱兴趣梯度,拒绝“灰色粘质”
00:02:57 Llion Jones:守护研究自由:公司发展中面临的挑战与哲学坚守
00:03:31 Llion Jones:削减自由的流程:商业压力与投资回报的预期
00:04:40 主持人:“技术捕获”现象:Transformer的成功与商业化压力
00:05:22 Llion Jones:局部最优解的困境:被大语言模型“捕获”的行业
00:05:37 Llion Jones:RNN时代的启示:技术突破与微小改进的循环
00:07:24 Llion Jones:Transformer的碾压式突破:旧研究的“多余”与当下的“浪费”
00:08:48 主持人:成功受害者:硬件/架构彩票与多样化技能的消亡
00:09:45 Llion Jones:人才困境:研究人员缺乏自由而非才华
00:10:24 主持人:新架构难以普及:通用表示与规模化路径的诱惑
00:11:02 Llion Jones:超越Transformer:需要“碾压式更好”才能推动行业转向
00:12:16 Llion Jones:引力效应:规模化带来的性能提升掩盖了架构创新
00:12:34 主持人:捷径学习与“破碎纠缠表示”:现有架构的修修补补
00:13:08 Llion Jones:连续思维机器的尝试:解决“参差不齐的智能”
00:13:50 Llion Jones:神经网络的“强大”与“强迫”:它们并非“想要”如此
00:14:14 Llion Jones:智能矩阵求幂:螺旋线数据的“自然”表示与理解
00:15:33 Llion Jones:ReLU模型的局限:蛮力拟合与缺乏真正理解
00:16:02 主持人:神经网络样条理论:描摹模式与延续模式的差异
00:17:20 Llion Jones:视频生成模型的困境:蛮力解决与缺乏深层理解
00:18:15 主持人:NeurIPS焦点论文:连续思维机器的创新与认可
连续思维机器(CTM)深度解析
00:18:31 Llion Jones:CTM的诞生:受生物学启发,神经元同步的简单想法
00:19:20 Llion Jones:打磨论文:无需匆忙,专注科学研究本身
00:20:02 主持人:AI驱动的进步:模型能否自主进行科学研究?
00:20:14 Llion Jones:AI科学家:端到端研究系统与人机协作的未来
00:21:22 主持人:监督的必要性:路径依赖与人类兴趣的延续
00:21:48 Llion Jones:引导与协作:AI研究如同指导实习生
00:22:18 主持人:人类的经验与直觉:AI模型能否习得?
00:22:55 Llion Jones:超越人类:AI在特定领域超越人类的案例(如象棋)
00:23:12 主持人:CTM介绍:Luke Darlow的自我介绍与项目历程
00:23:48 Luke Darlow:CTM的三大创新点:内部思维维度、神经元级模型、同步表示
00:24:15 Luke Darlow:迷宫任务:CTM的“Hello World”问题与序列化推理
00:25:19 Luke Darlow:神经元的重新定义:从ReLU到“小模型”
00:25:57 Luke Darlow:同步作为表示:捕捉“想法”在时间中的存在
00:26:47 主持人:CTM与规划:计算上的差异与图灵机的边界
00:27:29 Luke Darlow:迷宫问题的分解:自动课程系统与行为理解
00:28:46 主持人:自适应计算:步数敏感度、不确定性与无界步数
00:30:05 Luke Darlow:不确定性与步数:ImageNet分类任务中的自然涌现
00:31:00 主持人:神经元级模型与同步:M L P神经元与内积驱动
00:31:18 Luke Darlow:神经元级模型(NLMs):历史激活值与单一输出
00:32:09 Luke Darlow:同步的定义:时间序列的点积与神经元间关系
00:32:30 Luke Darlow:生物学与深度学习的平衡:NLMs的中间方案
00:33:19 主持人:扩展性与稳定性:同步矩阵的时间复杂度与子采样
00:33:33 Luke Darlow:CTM的稳定性:对梯度传播的帮助
00:34:00 Luke Darlow:表示空间的丰富性:D的二次方量级与下游计算
00:34:34 主持人:指数衰减率:不同时间尺度的同步
00:35:06 Luke Darlow:时间尺度差异:捕捉神经元快速与缓慢同步
00:35:42 Luke Darlow:表示空间的进一步丰富:细微调整与更多可能
CTM的未来与AI推理
00:36:19 主持人:CTM在推理任务上的优势:离散、稀疏领域与样本效率
00:36:40 Luke Darlow:内部化推理:思维链与序列化运行
00:37:06 Luke Darlow:CTM的灵活性:同步与多层次时间表示
00:37:34 主持人:CTM与神经图灵机:隐空间推理与任务展开
00:37:56 Luke Darlow:ImageNet任务的启示:分解问题与自然分割
00:39:00 Luke Darlow:模型校准:CTM的完美校准与传统模型的缺陷
00:40:10 Llion Jones:自适应计算时间的自然涌现:无需额外惩罚项
00:41:35 Llion Jones:沿着“有趣”的梯度:以架构为驱动的探索
00:42:06 主持人:路径依赖与“复杂化”:构建世界模型与主动推理
00:42:33 Luke Darlow:模棱两可的问题:幻觉与世界分解的不同方式
00:43:27 Luke Darlow:分解问题:自然且无需“黑科技”的方法
00:43:55 主持人:捷径问题:成本函数与推理的对齐
00:44:23 Luke Darlow:架构的意外适用性:向大脑与自然致敬
00:45:04 Luke Darlow:鼓励年轻研究者:追随热情,探索未知
00:45:36 主持人:CTM与下一代语言模型:迷宫与模糊性
00:46:07 Luke Darlow:CTM的探索行为:回溯与多路径尝试
00:47:08 Luke Darlow:迷人的“蛙跳”行为:时间约束下的新算法
00:48:06 Luke Darlow:人类思维的启示:受限与开放环境下的思考
00:48:18 主持人:群体方法与集体智能:纵向与横向扩展
00:48:36 Luke Darlow:记忆与长期记忆:共享记忆与文化记忆
00:49:34 Luke Darlow:通用人工智能的关键要素:记忆的构建
Sudoku Bench:一个全新的推理基准测试
00:50:09 Llion Jones:Sudoku Bench数据集:推广的困难与独特之处
00:50:33 Llion Jones:变体数独:自然语言理解与元推理的挑战
00:51:18 Llion Jones:多样性与推理能力:攻克基准测试的意义
00:51:46 Llion Jones:GPT-5o的性能:仍无法解决人类谜题
00:52:04 Llion Jones:数据集的灵感:Andrej Karpathy的“思维轨迹”
00:52:36 Llion Jones:Cracking the Cryptic:高质量人类推理数据的来源
00:53:37 Llion Jones:基准测试的难度:模仿学习的挑战
00:53:46 Llion Jones:强化学习的局限:稀疏空间与特定推理
00:55:00 主持人:知识的“演绎闭包”:推理之树与乐高积木
00:55:51 Llion Jones:实时学习与元任务:对推理进行推理
00:56:08 Llion Jones:专业人士的直觉:推理乐高积木的识别
00:57:00 Llion Jones:人类的回溯行为:AI模型中缺失的环节
00:57:15 主持人:主题间的系统发育距离:集体智能的优势
00:57:32 Llion Jones:强化学习的失效:稀疏空间与特定推理的挑战
00:58:08 招聘信息与结束语
00:58:08 主持人:Sakana AI招聘:为优秀人才提供梦想工作
00:58:21 Llion Jones:研究自由的承诺:来日本,做有趣且重要的事
00:58:43 主持人:日本文化:世界最文明的文化之一
00:58:51 主持人:感谢嘉宾:千载难逢的机会
🌐 播客信息补充
本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的
使用 AI 进行翻译,因此可能会有一些地方不通顺;
如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
【活动推荐💡】
今年冬天,北京有你最值得你赶一趟的现场:极客公园创新大会 2026。
在活动的两天的时间里,我们将汇聚这个时代最「有料」并且敢于说「非共识」的人--何小鹏、刘靖康、刘作虎、王小川......来这里:
👂你会听见下一个技术周期「原点」的声音
🤝结识正在定义新行业的人
🧑💻找到在 2026 你换一个团队或者启动一个创业旅程的理由
12 月 6 日-7 日,北京 798艺术区,我们不见不散!速戳链接,了解大会详情👉极客公园创新大会 2026 首批嘉宾揭晓!https://mp.weixin.qq.com/s/j0eRzCvLmkNvq_rrR428Zg
🔥「极客公园创新大会 2026」门票火热发售中,主会场早鸟限时七折优惠,票量有限,先到先得!
评价...
空空如也
小宇宙热门评论...
橙子味的芽芽乐
3周前
广东
0
这个节目是怎么做出来的啊!完美解决我的语言障碍。。
yikai-
3周前
云南
0
【活动推荐💡】
🔥未来不是被预测的,是被讨论、被选择的,来「极客公园创新大会 2026」参与下一个技术周期的「原点」。12 月 6 日-7 日,北京 798艺术区,我们不见不散!活动门票火热发售中,速来抢票,和正在创造未来的人见面👉https://shop170677688.m.youzan.com/v2/showcase/homepage?alias=BsxJmYyT2b&dc_ps=3703668822394435587.200001
橙子味的芽芽乐
3周前
广东
0
这个节目是怎么做出来的啊!完美解决我的语言障碍。。
yikai-
3周前
云南
0
【活动推荐💡】
🔥未来不是被预测的,是被讨论、被选择的,来「极客公园创新大会 2026」参与下一个技术周期的「原点」。12 月 6 日-7 日,北京 798艺术区,我们不见不散!活动门票火热发售中,速来抢票,和正在创造未来的人见面👉https://shop170677688.m.youzan.com/v2/showcase/homepage?alias=BsxJmYyT2b&dc_ps=3703668822394435587.200001
橙子味的芽芽乐
3周前
广东
0
这个节目是怎么做出来的啊!完美解决我的语言障碍。。
yikai-
3周前
云南
0
【活动推荐💡】
🔥未来不是被预测的,是被讨论、被选择的,来「极客公园创新大会 2026」参与下一个技术周期的「原点」。12 月 6 日-7 日,北京 798艺术区,我们不见不散!活动门票火热发售中,速来抢票,和正在创造未来的人见面👉https://shop170677688.m.youzan.com/v2/showcase/homepage?alias=BsxJmYyT2b&dc_ps=3703668822394435587.200001
橙子味的芽芽乐
3周前
广东
0
这个节目是怎么做出来的啊!完美解决我的语言障碍。。
yikai-
3周前
云南
0
【活动推荐💡】
🔥未来不是被预测的,是被讨论、被选择的,来「极客公园创新大会 2026」参与下一个技术周期的「原点」。12 月 6 日-7 日,北京 798艺术区,我们不见不散!活动门票火热发售中,速来抢票,和正在创造未来的人见面👉https://shop170677688.m.youzan.com/v2/showcase/homepage?alias=BsxJmYyT2b&dc_ps=3703668822394435587.200001