主播
节目简介
来源:小宇宙
2026年,大模型战争全面升级,掀开了第二幕——从Pre-train(预训练)主导的Chat时代,转向Post-train(后训练)主导的Agent时代。
在AI范式巨变之际,我访谈了人工智能研究员罗福莉。罗福莉曾供职阿里达摩院、DeepSeek,目前是小米大模型团队负责人,主导研发了MiMo-V2系列模型。她在网络空间有很多标签,例如“AI天才少女”,但她不喜欢这个称呼。
这次是她的第一次访谈,也是她第一次进行长时间的技术访谈。
我们系统性地谈论了,2026年由Claude Opus 4.6、OpenClaw等技术变量所触发的AI巨震,以及后续结构性影响。
在这个生产力大爆炸的时代,人人都有危机感。哪怕是对于亲手训练模型的研究者来说。
“我之前认为我们自己做的工作已经足够有创造力、足够不会被Skill化、不会被Workflow化。但我现在发现,它竟然也能!那它可不可以训出更强的模型?自己左脚踩右脚就提升了?——这是这一两年会发生的事情。”
当人类的知识与智慧内化为模型能力,未来的人类去做什么?我们的社会如何消化这次剧烈的技术变革?——这些宏大的时代命题我们不得而知。
但无论如何,这仍然是一次信息密度极大的访谈——你能从中看见,当面临一次巨大技术范式转折时,一家AI Lab内部,在技术押注、资源调配、组织与人员等诸多方面的系列举措。而它应对巨变的根基是,文化与价值观的成型。
罗福莉对当下有一些关键的技术判断:
* Anthropic的路径是正确的,这是当下共识。
* 在路径更清晰的情况下,国内大模型团队进入加速追赶的状态。现在大家在Pre-train上的代差是基本没有的,或者说非常接近。
* 现在至少跟23年要去追平Pre-train的差距一样,大家很all in,要去做好Agent的Post-train。更具体说,是在Agent上怎么做好RL的scaling。
* 系统从“以Rollout推理引擎为核心”,转变为“以Agent为核心”的一个更复杂系统。这对团队提出了更高的要求:必须具备足够敏捷性,能够快速开发出适配当前时代的RL Infra系统。
* 接下来两三个月,大家怎么发生变化,是考验团队整体研究水平、技术敏捷程度,以及怎么拥抱新的范式来做研究的关键。
* 一个for更长期的事情:我们不会在1T水平上走太久。如果要拿到下一个阶段的领先,就要寻求更大规模scaling。到底是去scaling模型的参数量,还是去scaling什么东西?以及要在什么样的芯片上去scaling?——这是当下立即需要去决策和判断的,这才决定了大半年过后谁更领先。
在卡的调配上:
* 至少在Chat时代,for研究、for Pre-train和for Post-train的用卡比例非常夸张,比如3比5比1,现在一个非常合理的用卡比例可能是3比1比1。
* 预训练跟后训练一个比例,这是今年可能发生的很大变化。顶尖团队应该都是1比1了。
在组织的重组上:
* 做后训练现在一个重要的范式变化是,需要具备diversity(多样性),让预训练的人做后训练是个很好的补充。
“接下来两三个月会非常精彩。”罗福莉称。
接下来,就是我对罗福莉的访谈。
OUTLINE:
00:02:16 OpenClaw引发巨变
00:24:17 群体智能提升Agent框架
00:41:31 2026是生产力变革之年
01:01:45 Agent的自进化与自迭代
01:19:39 MiMo-V2:觉醒和伏击
01:45:24 1T模型是入场券
01:52:33 组织平权
02:02:56 训练细节和成本
02:09:03 另类架构
02:22:32 AI没有生存危机
02:39:12 每天在否认昨天的自己
02:48:34 过去3年的AI进化史
03:05:54 当下共识与竞争
03:19:45 环境比经验更重要
LINKS:
我们的播客在小宇宙、Apple Podcast、Spotify等全音频平台播出;
我们的视频播客在Bilibili、小红书、视频号、抖音等全视频平台播出;
如果你想服用文字版,请搜索我们工作室的公众号:语言即世界language is world。
本集文字版:《独家对话罗福莉:AI范式已然巨变!》
DISCLAIMER: 本内容不作为投资建议。
CONTACT: [email protected]
Jump into the new world-and explore with us!😉
在AI范式巨变之际,我访谈了人工智能研究员罗福莉。罗福莉曾供职阿里达摩院、DeepSeek,目前是小米大模型团队负责人,主导研发了MiMo-V2系列模型。她在网络空间有很多标签,例如“AI天才少女”,但她不喜欢这个称呼。
这次是她的第一次访谈,也是她第一次进行长时间的技术访谈。
我们系统性地谈论了,2026年由Claude Opus 4.6、OpenClaw等技术变量所触发的AI巨震,以及后续结构性影响。
在这个生产力大爆炸的时代,人人都有危机感。哪怕是对于亲手训练模型的研究者来说。
“我之前认为我们自己做的工作已经足够有创造力、足够不会被Skill化、不会被Workflow化。但我现在发现,它竟然也能!那它可不可以训出更强的模型?自己左脚踩右脚就提升了?——这是这一两年会发生的事情。”
当人类的知识与智慧内化为模型能力,未来的人类去做什么?我们的社会如何消化这次剧烈的技术变革?——这些宏大的时代命题我们不得而知。
但无论如何,这仍然是一次信息密度极大的访谈——你能从中看见,当面临一次巨大技术范式转折时,一家AI Lab内部,在技术押注、资源调配、组织与人员等诸多方面的系列举措。而它应对巨变的根基是,文化与价值观的成型。
罗福莉对当下有一些关键的技术判断:
* Anthropic的路径是正确的,这是当下共识。
* 在路径更清晰的情况下,国内大模型团队进入加速追赶的状态。现在大家在Pre-train上的代差是基本没有的,或者说非常接近。
* 现在至少跟23年要去追平Pre-train的差距一样,大家很all in,要去做好Agent的Post-train。更具体说,是在Agent上怎么做好RL的scaling。
* 系统从“以Rollout推理引擎为核心”,转变为“以Agent为核心”的一个更复杂系统。这对团队提出了更高的要求:必须具备足够敏捷性,能够快速开发出适配当前时代的RL Infra系统。
* 接下来两三个月,大家怎么发生变化,是考验团队整体研究水平、技术敏捷程度,以及怎么拥抱新的范式来做研究的关键。
* 一个for更长期的事情:我们不会在1T水平上走太久。如果要拿到下一个阶段的领先,就要寻求更大规模scaling。到底是去scaling模型的参数量,还是去scaling什么东西?以及要在什么样的芯片上去scaling?——这是当下立即需要去决策和判断的,这才决定了大半年过后谁更领先。
在卡的调配上:
* 至少在Chat时代,for研究、for Pre-train和for Post-train的用卡比例非常夸张,比如3比5比1,现在一个非常合理的用卡比例可能是3比1比1。
* 预训练跟后训练一个比例,这是今年可能发生的很大变化。顶尖团队应该都是1比1了。
在组织的重组上:
* 做后训练现在一个重要的范式变化是,需要具备diversity(多样性),让预训练的人做后训练是个很好的补充。
“接下来两三个月会非常精彩。”罗福莉称。
接下来,就是我对罗福莉的访谈。
OUTLINE:
00:02:16 OpenClaw引发巨变
00:24:17 群体智能提升Agent框架
00:41:31 2026是生产力变革之年
01:01:45 Agent的自进化与自迭代
01:19:39 MiMo-V2:觉醒和伏击
01:45:24 1T模型是入场券
01:52:33 组织平权
02:02:56 训练细节和成本
02:09:03 另类架构
02:22:32 AI没有生存危机
02:39:12 每天在否认昨天的自己
02:48:34 过去3年的AI进化史
03:05:54 当下共识与竞争
03:19:45 环境比经验更重要
LINKS:
我们的播客在小宇宙、Apple Podcast、Spotify等全音频平台播出;
我们的视频播客在Bilibili、小红书、视频号、抖音等全视频平台播出;
如果你想服用文字版,请搜索我们工作室的公众号:语言即世界language is world。
本集文字版:《独家对话罗福莉:AI范式已然巨变!》
DISCLAIMER: 本内容不作为投资建议。
CONTACT: [email protected]
Jump into the new world-and explore with us!😉
小宇宙热评
恒不戳
6天前
浙江
66
这也太牛了,有没有机会能采访一下kaiming
薯条哲学家海鸥同学
6天前
广东
43
这个月简直和过年一样,百花齐放,学不完了😭
姥姥王
6天前
上海
32
恭喜DeepSeek开枝散叶,聚是一团火,散是满天星!
Kelton
6天前
北京
29
这期真的太干了,虽然可能罗老师不太习惯长文中文表述,但真心很有思维很有深度敢于分享
李叨叨
6天前
北京
22
听到现在可以发现,火的现象级而已,积累还是不够,能力差距能听出来
AI_Baymax
6天前
北京
17
听这样播客的时候会去在意口语表达吗?我一点都不在意,我在意的是罗老师带来的信息密度和思考
CheukSing
6天前
广东
15
太紧张了,听感有点难受
0xffbin
6天前
山东
15
DeepSeekV4
都在我的计划当中
4天前
上海
12
很多人在挑战她的表达方式,我觉得很好笑;
这些人对功成名就的人有一些不切实际的期待,这些期待是基于他们想象中一个厉害的人产生的;
一旦通过这样的对话接触到了真实的罗福莉时,幻想破灭,不符合期待,以为不过如此;
有没有可能,她并不是因为表达方式成功的?
建议少靠想象力来理解世界,多看看她们做了什么,表达了什么论据;
真正心里有数的人都有一个认知,现在这个时间点,你尝试过什么,比你想过什么重要的多
论迹不论心;
Sayhi_bzb
6天前
上海
12
很感慨模型研发人员居然不关注应用层,龙虾的架构从去年开始就有 agent 雏形了,也有开源的 g-cli 和 codex 解释了 cc 的底层架构
刘纯钦
6天前
上海
10
当你最强的核心能力是整合时,大力提倡开源好像没什么问题,太小米了
HeathePot
6天前
上海
9
09:33 妈呀太难受了 能不能剪一下呢 呃呃太多了
海中央种树
4天前
北京
9
我觉得表达能力什么的都不是问题。但是前十分钟对小龙虾的三次让她震惊我觉得完全不能理解。。
第一次震惊是情感和细节:罗老师一定没用 gemini3吧 😂
第二次是对管理模式的启发:这不是大模型本身的能力吗...和小龙虾有啥关系。老师对大模型本身的发展进程真的了解吗
第三次是对研究的启发,说可以通过编排工程解决模型能力低的问题。这个结论也完全不能苟同 🥲
00Jain00
6天前
北京
8
15:20 有点紧张,信息不连贯,确实听起来抓耳挠心
-ThreeWater-
6天前
北京
7
一耳朵川渝普通话😅
庄非
6天前
湖北
7
期待采访王兴
咖啡装进保温杯
6天前
广东
5
3:06:06 哈哈总是额额的语气词,有时候是欲言又止。我get到了
Yiii1984
6天前
浙江
5
针灸的时候听这个播客,确实很煎熬ಠ_ಠ
嗯嗯啊啊的一点沉浸感也没有...
鲜世丹
5天前
广东
4
1:55:39 貌似第一次听到模型团队的一号位这么认真的来讲技术,我们内部的agent 产品已经将MiMo 作为默认模型了
liveM数字朋克
5天前
广东
4
28:16 意想不到 Claude Code 在3月底“开源”了🤓