https://babi.com/

节目列表: 晚点聊 LateTalk - EarsOnMe - 精选播客,一听即合

149: 具身模型哪家强?与范浩强、高阳聊具身模型的测评、RoboChallenge,26 年具身展望

晚点聊 LateTalk

「用大规模测评驱散 PR 式 demo 的迷雾。」 虚拟空间的大模型有大量 benchmark,测试非常直观;而在如火如荼的具身领域,怎么衡量模型能力,本身还是需要探索的课题。 这期,我们邀请了两位具身智能从业者,原力灵机联创范浩强和千寻智能联创与首席科学家高阳,一起聊具身模型的测评。 范浩强从高三就开始在旷视工作,有丰富的计算机视觉开发和落地经验;高阳回国前在伯克利 BAIR 攻读博士,和 PI 的联创 Sergey Levine 有诸多学术合作。 去年 10 月,原力灵机和 Hugging Face 联合发起了全球首个具身智能的大规模真机评测平台 RoboChallenge。在前不久释放的最新测评结果中,千寻的 Spirit v1.5 模型登顶榜单,表现超过 π*0.5。 RoboChallenge 测评平台网站:https://robochallenge.ai/home 图注:RoboChallenge 测评现场 在 RoboChallenge 的测评中,机器人不再只活在精挑细选的 Demo 视频里,而是要在多样化的“Table 30”任务中接受真实世界的“毒打”——任务包括碎纸、插花,扫二维码。 这期我们聊了具身模型测评的难点,RoboChallenge、RoboArena 等目前的大规模测评尝试是怎样的思路?行业里心照不宣的 demo 工程,以及 2026 年,我们可能从哪些路径逼近具身智能的 GPT-3 时刻。 范浩强和高阳说,组织和参与测评的过程,组织和参与测评的过程,本身增强了他们对具身的信心,,从 π*0 在 Table 30 任务上只有 20% 的成功率到 π*0.5 的翻倍和一些国产模型的超越,具身仍很早期,但进步速度也很惊人。 本期嘉宾: 范浩强 原力灵机联合创始人 高阳 千寻智能联合创始人、清华大学叉院助理教授 本期主播: 程曼祺 晚点 LatePost 科技报道负责人 时间线跳转: -发起 RoboChallenge,行业呼唤大规模测评 03:24 范浩强和高阳的从业经验 06:53 RoboChallenge 的发起,见证成功率从 π0 的 20% 到 π0.5 的超 40% 12:40 以往方法的问题:环境不一致、测评不持续、仿真有局限 21:47 对比 RoboArena 和 RoboChallenge:前者是分布式 Zero-shot 测评;后者是集中 few-shot 测评 28:33 上线 2 个多月的观察:超预期的 1 万条测试提交,国产模型超越 33:04 Table 30 任务集的设计,插花、扫二维码等任务的“刁钻”考点 40:24 提交者自己做 fine-tune(微调),开源权重证明诚信;接下来会更新灵巧手的测评 -2026 年具身展望 45:07 学习原理已经收敛,Scaling Data 是 2026 年的行业主题 48:53 4 种数据类型,各团队的不同数据 bet 57:20 落地应用,具身的“Coding”任务是什么?“破圈”时刻何时出现? 01:07:00 大众与从业者之间的认知落差,行业心照不宣的“demo”工程 01:12:50 具身测评可以被 Hack 吗?如何反制 hack? 01:14:52 26 年想验证的问题:具身中国追平美国的 DeepSeek 时刻是否到?基模能否上一个台阶? 01:17:47 连点成线:总结观察具身进展的 3 个维度 & 具身创业团队的不同来源 附录:本期中出现的一些人物、技术名词、项目、公司 -Sergey Levine:Sergey Levine,加州大学伯克利分校教授,机器人强化学习与通用学习系统的重要推动者。曾参与 Google / Google Brain 的机器人与强化学习研究,并共同创立具身智能公司 Physical Intelligence(PI)。 -π 系列模型:PI 提出的通用机器人模型系列,最新版本 π*0.6。 -CIFAR:一个经典计算机视觉数据集,相比之后出现的 ImageNet,它规模更小、分辨率更低,常用于快速实验和教学。 -Sunday Robotics:由 Tony Zhao 与 Cheng Chi 在 2024 年联合创立的家庭场景通用机器人公司。 -Generalist AI:2024 年成立的美国通用机器人 / 具身智能的创业公司。 本期剪辑:Nick 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

81分钟
5k+
1周前

148: 访谈它石创始人陈亦伦:具身的三道曙光和第一道关卡

晚点聊 LateTalk

「华为前自动驾驶首席科学家投身具身创业。」 本期嘉宾是它石智航创始人陈亦伦,他曾担任大疆创新机器视觉总工程师和华为自动驾驶部门首席科学家。 2021 年,智能辅助驾驶的爆发前夕,陈亦伦在华为带团队开始采集大量真实的驾驶数据,用深度学习替代过去自动驾驶的规则方法,3 万行代码做了过去 200 万行代码的事,这是业界第一批探索端到端智能驾驶的尝试。 陈亦伦说,那一刻,他觉得自己找到了自动驾驶的钥匙,而他还想用这把钥匙去探索一个年少时种下的更大梦想:通用智能机器人,也就是具身智能。 在回到母校清华,于 AIR(智能产业研究院)担任智能机器人方向首席专家 2 年后,2025 年初,陈亦伦和百度原资深副总裁、百度智能驾驶事业群负责人李震宇一起创立它石智航,在最初 2 轮融资中,筹集了超过 2.4 亿美元。创下中国具身智能领域的首轮融资记录。 这期节目,陈亦伦讲述了他从自动驾驶到具身智能的多年技术探索和研发实践,他看到的具身智能的 3 道曙光和 3 道关卡,以及怎么先越过其中的第一道:数据。 本期嘉宾:陈亦伦,它石智航创始人兼 CEO 本期主播:程曼祺,晚点 LatePost 科技报道负责人 时间线: -从华为、清华到创立它石,看到具身的三道曙光 02:35 用神经网络做自驾规控(PnC),3 万行替代 200 万行代码 11:13 三道曙光:强化学习提升运控(locomotion)能力;LLM 处理任务规划;端到端解决极端案例 17:13 端到端、VLA、世界模型,联系与区别 20:40 三道关卡:数据、算法、后训练 24:43 具身还在第一道关卡,数据;最后能经受大量数据的算法结构会很简单;GPT 最伟大的是定义了训练任务是预测下一个 token,而非架构本身 30:16 定义具身模型的训练任务:建立空间概念、跟世界交互 -数据解法:真实数据而非仿真和视频数据,手套采集而非遥操 40:54 具身需要真实数据,不看好仿真和视频数据 49:42 真实数据只有两个源头,世界与人;真实意味着场景真实、动作真实;为可穿戴设备是唯一解 55:08 手套+第一视角摄像头采集数据的具体实现 59:11 具身充满了硬件场景、本体、数据算法间的交替组合和协同优化,中国有供应链和场景优势 01:05:08 没有选择 VLA,具身会有自己的模型,而不是简单在 LLM 上发展 具身已经到了 Scaling 的临界点 01:13:23 看数据增长趋势,具身已经到了 Scaling 的临界点 01:18:04 它石的落地场景之一是处理柔性材料的线束装配 01:21:15 能自己定义目标的具身公司就是靠谱的;成为别人,不是好的选择 01:22:38 连点成线:往期分享 往期具身智能访谈: 晚点聊 112 期:与千寻高阳聊具身:一个像机器人的人,怎么做像人的机器人 晚点聊 96 期:和楼天城聊 Robotaxi:学习人类优秀司机,让我绝望 晚点聊 86 期:We, Robot-2,清华叉院/星海图许华哲看“Optimus”的门道 晚点聊 65 期:信仰充值的威力:与逐际动力谌骅聊聊 GTC 和人形机器人新进展 剪辑制作:甜食 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

85分钟
8k+
2周前

147: 访谈OiiOii闹闹:“先抖音后剪映” 不再成立,AI 时代的创作工具和内容社区

晚点聊 LateTalk

「Agent 的工具可以以终为始。」 今天这期节目,是晚点的作者祝颖丽对 OiiOii 创始人闹闹的访谈。本次访谈的文字版今天也会发布在《晚点科技》公众号上。 OiiOii 是一款动画创作 Agent。刚刚在 25 年 11 月开启内测。闹闹自己是一名动画爱好者,2014年,在微信工作 3 年后,她辞职学了半年动画。但当时她发现,做动画太难了,行业环境也很糟。 时隔10年,在自己创过业,去字节做过剪映,在大模型公司阶跃星辰做过二次元社区产品“狸谱”之后,她找到了用 AI 延续动画梦想的方法。 这期,闹闹分享了她和团队是如何构思和做出 OiiOii 的,以及她过去的创业和大厂经历。 图:OiiOii 官网页面。地址:https://www.oiioii.ai/home) 本期嘉宾:闹闹,OiiOii 创始人 本期主播:祝颖丽,《晚点 LatePost》 作者 时间线跳转: 05:06 先做好工具,再去做内容的社区:因为大家不再能忍受内容的单调了 11:40 市场现状:现在动画的产能和消费非常不对等 16:46 OiiOii为什么是这个形态? 31:04 如果做AI漫剧,商业模式、审美都不一样 41:30 怎么利用和理解不同的模型 51:50 现在的团队分工 53:50 第一次创业做极限运动社区,发现其实喜欢做内容 01:06:17 第一次创业留下的最宝贵的东西:抗体 01:18:15 在字节:对剪映和抖音特效最大贡献是… 01:27:17 去了B站:看到产能被憋着了 01:28:45 OiiOii 后面大致的节奏:填充垂类内容,去海外,做内容社区 往期「AI 应用/AI Agent」创始人访谈: 晚点聊 136:Sora新世界 & Lovart 4个月复盘 | 与陈冕聊怎么做垂类 晚点聊 125:用AI复刻一个「我」,与心识宇宙陶芳波聊身份模型 晚点聊 111:Pokee.ai 朱哲清的 Agent 造法:强化学习作后端,语言模型作前端 《晚点对话明超平:他们不信 AI coding 会是新的创作方式,我很开心》 剪辑制作:Nick ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

101分钟
7k+
4周前

146: Gemini 3翻盘背后、Agent需要什么大模型、RL创业机会,与前 Google 创业者、硅谷投资人聊湾区动向

晚点聊 LateTalk

「一线开发者看到的前排变化。」 本期是 137 期 Agentic 工具链节目的嘉宾返场,Henry 和 Naomi,他们近期刚刚和普林斯顿 AI 加速创新中心联席主任,王梦迪教授,一起成立了一家新的早期 VC,MoE capital。 这次一起的也有两位之前在 Google DeepMind 和 谷歌云 Vertex AI 平台工作 7 年,刚刚创业,成立 Agent 工具层公司 Precur 的戴涵俊和 Bethany。 我请他们分享了,岁末年初,在硅谷观察到的 AI 水温,OpenAI、Google 等一系列新模型进展背后的故事,和围绕当今 Agent 与 RL 生态的创业机会。 这是我们本年关于 Agent 的第 8 期节目。 本期嘉宾: Bethany Wang,Precur 联创 戴涵俊,Precur 联创 Henry Yin,MoE Capital 创始合伙人 Naomi Xia,MoE Capital 创始合伙人 本期主播: 程曼祺,晚点 LatePost 科技报道负责人 时间线: -基础模型竞争和幕后故事:Google 在旧金山开 Gemini 3 Party 的同一天,OpenAI 发布 GPT-5.2 06:11 AI 进入实用工作:OpenAI 的 GDPval,Databricks 也发布了 Office QA 14:25 GDPval 在主流知识工作上表现优秀,但基础模型处理长尾问题的 gap 始终存在 19:09 Gemini 3 后,OpenAI、Anthropic、Google、各自的进展 22:15 NotebookLM 和 Nano Banana 策源地——Google Labs,不仅招工程师,也有主编、作家、创作者 24:54 DeemMind 研究员 Orio:Gemini 3 的秘密?预训练还有很多空间;TPU 对 Google 训练的加持 26:34 Google 的 3 层协同优化:从 TPU 到 Infra 到模型;模型和应用;数据和硬件 surface(终端) 30:18 Google TPU 已经更多对外,这对英伟达 GPU 优势的影响 38:02 回顾组织变化:DeepMind 和 Google Brain 的合并与磨合 -大厂竞争中,新公司的成长:围绕 RL 与 Agent 的创业机会 43:31 垂类的机会:弥补基础模型到具体问题的差距;水平的机会:调度层、数据层、工具层都有新公司涌现 50:17 技术新趋势——自我演化:RL、用 RAG 加长记忆有人尝试,但远不是成熟方案 53:32「可训练的工具层」背后的技术变化:code 驱动工具,如 Anthropic 的 PTC(Programmatic Tool Calling) 59:44 RL 创业方向:RL 环境,RL as a Service,RL 应用 01:08:47 Agent 开发者挑选模型的前置条件:用什么云(比如 Azure 客户用不了 Gemini),再看云厂商折扣 01:12:20 Anthropic 的 Claude Code 已成为 Agent 核心,刚发布的 Promatic to Call 探索新开发范式 01:17:13 开源模型使用体验:Qwen 很棒;驶往 NeurIPS 的飞机上,1/3 人在看 DeepSeek-V3.2 技术报告 01:22:04 选择模型时,关注什么 benchmark & 为什么? 01:29:34 模型优化方向预测:加入大量 agent trace 的开源模型,更强的多模态,长程任务优化 01:38:58 连点成线:往期节目推荐 《晚点聊》今年关于 Agent 的更多节目: 晚点聊 106 期:与真格戴雨森长聊 Agent:各行业都会遭遇“李世石时刻”,Attention is not all you need 晚点聊 110 期:《与明势夏令聊Agent竞争:通用入口之战就要来,创业要做垂、做专》 晚点聊 111 期:Pokee.ai 朱哲清的 Agent 造法:强化学习作后端,语言模型作前端 晚点聊 130 期:手机Agent大幕拉开!从刚上线的AutoGLM 2.0聊起,大模型如何改造手机 晚点聊 136 期:Sora新世界 & Lovart 4个月复盘 | 与陈冕聊怎么做垂类Agent| 晚点聊 137 期:Agent 是机会,造 Agent 的工具也是|从OpenAI开发者日聊起 晚点聊 138 期:从你用手机到它更懂你,OPPO的手机AI实践 |与小布负责人万玉龙聊端侧AI 附录: 本期中提到的一些 benchmark: -GDPVal:OpenAI 今年 10 月发布的、用于评估大模型在复杂推理与决策场景中“价值对齐与结果质量”的验证型 benchmark,强调输出是否符合人类偏好而不只是“做对题”。 -ARC-AGI-2:ARC Prize 今年 3 月发布的、用于测试模型在少样本条件下的抽象、组合推理能力,被视为接近“通用智能门槛”的挑战集。 -OfficeQA:Databricks 今年 12 月发布的、围绕办公场景(文档、表格、邮件、日程等)的 benchmark,用来评估模型在真实工作流中的信息检索、理解与执行能力。 本期中提到的一些产品/服务、公司 -PTC(Programmatic Tool Calling):Anthropic 今年 11 月底发布的一种新的工具调用方法 https://www.anthropic.com/engineering/advanced-tool-use -Tinker:Thinking Machines Lab 今年 10 月发布的首个对外产品 https://thinkingmachines.ai/blog/announcing-tinker/ -Preference Model:一家旧金山初创企业,做强化学习环境 剪辑制作:甜食、Nick 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

100分钟
19k+
1个月前

145: 对话极壳孙宽:首个「消费级外骨骼」的诞生

晚点聊 LateTalk

「创业治好了我的死亡焦虑。」 极壳是第一家把外骨骼做成消费级产品的公司。21 年成立以来,他们经历过账上只有20万元人民币的危急时刻,也刚在今年融到了 7000 万美元,出货量达到数万台。 图注:极壳已发布 4 款消费级外骨骼产品。 这只是个开始,远远不意味着成功。孙宽多次告诉我们,消费级外骨骼还在非常早期的阶段;他享受定义一个新品类的乐趣,也深知跨越鸿沟,走出小众市场的挑战。 这是一家起步时没有风口的公司;这是一个父母开手机卖场,从小做各种发明,但没有名校光环的创始人。 孙宽分享了他早年的“折腾”经历,他创立极壳、开发出第一款产品的故事,以及他对未来的更多想象。 图注:孙宽是一个户外爱好者;极壳的主要目标用户是户外人群,外骨骼可以帮助他们增强运动能力。 本期嘉宾:孙宽,极壳创始人 & CEO 本期主播: 程曼祺,《晚点 LatePost》科技报道负责人 李梓楠,《晚点 LatePost》科技报道作者 时间线跳转: -水滴字幕、光固化 3D 打印机、3 年轮岗、内部创业 03:05《攻壳机动队》、90 后的科学幻想、技术是魔法 13:25 第一份工作:从轮岗 3 年到模块化 PC 的内部创业 18:27 一次误诊后回到初心:做一件做着做着挂了的事也不会后悔 -从 1 人公司,到第一款消费级外骨骼 26:51 1 人公司手搓原型,一度账上只有 20 万元人民币 40:06 做“真有用”的消费级外骨骼:拉高核心正面效果,尽量降低负面影像 49:41 推倒第一代方案,用户体验比新架构重要 01:04:27 正式交付 Hpershell X,有人日行 7 万步,有人重返户外 -效率的迭代:从 40 个月到 5 个月 01:09:11 从成立到第一款产品,40 个月;第二代产品,5 个月 01:05:08 从 1 人公司,到 4 位联创和 200+团队 01:25:47 对拓竹组织的观察:好的人,希望身边都是好的人 -跨越鸿沟 01:32:52 品类跨越鸿沟:营造向往、价格、自研、形态拓展 01:49:47 组织跑得更快 -创业之后更踏实了,“活对了的感觉” 01:56:22 创业治好了我的“死亡恐惧”。 01:59:53 广义的外骨骼,最终是让我们的身体可编程。 02:05:40 连点成线:后记 & 往期节目推荐 往期「消费科技」创始人访谈: 晚点聊 120 期:科创板后再访Insta360刘靖康:这何尝不是一种极限运动! 晚点聊 141 期:大疆激光雷达前负责人做了台“电动轮椅”?与 Strutt 洪小平聊创业两年半:不做人形也能通向具身 往期「AI 硬件」创始人访谈: 晚点聊 107 期:与Haivivi李勇聊月入千万的AI Jellycat:小众AI硬件×大众消费品的交叉口创业 晚点聊 118 期:天生卷王郭人杰:从 97 年的扫地机器人总裁到创业做家庭通用机器人 晚点聊 122 期:10分钟朱啸虎投资,泡泡玛特、米哈游都在试;Fuzozo孙兆治聊AI潮玩 剪辑制作:甜食 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

128分钟
6k+
1个月前

144: 从「大而强」到「小而强」,密度法则、RL 的 Scaling Law 和智能的分布式未来

晚点聊 LateTalk

本期嘉宾,是清华大学的刘知远和肖朝军,他们刚在 11 月的《自然》杂志《机器学习》子刊上发表了封面文章:Densing Law of LLMS,大模型的密度法则。所谓“密度”,就是用更少的算力和数据获得相当乃至更多的智能。 刘知远是清华计算机系副教授和面壁智能首席科学家,肖朝军现在在清华做博士后,也是面壁 MiniCPM 系列的文本模型负责人。 图注:此图描述了 2023 年 4 月之后,主要开源模型的能力密度的变化。能力密度是衡量单位参数/算力下,模型能力的指标。目前版本的密度法则总结了预训练大语言模型的密度变化,o1、R1 等后训练强化学习对能力密度的提升尚未体现在指标里。 我们讨论了密度法则研究的源起,也展开聊了业界提升模型能力密度的具体做法:如何从架构、数据治理、算法和软硬协同优化 4 个环节着手提升模型能力密度。 而再往后,更大的密度提升,可能需要一些全新方法,因为强化学习的 Scaling Law 还未清晰展现,未来可能有两种技术路线:一是继续扩大强化学习的规模,观察其中是否涌现更多泛化能力;二是寻找新的学习方式。 在刘知远的设想中,未来,更高密度的模型,会支持每个人在端侧的专属模型,智能会分布式存在:也许手机都不是最终的入口,而是一个可以随身携带的个人计算设备:“就像一个可以随身携带的 NAS”。 图注:达到 GPT-4V 水平的模型参数规模随时间增长迅速缩减,而端侧算力快速增强,当芯片电路密度(摩尔定律)和模型能力密度(密度法则)两条曲线交汇,端侧设备将能运行以往只能在云端运行的大模型。 性能一直是人们更关注的模型演进的脉络,而这期我们会讨论,在另一条主线“效率”上,我们可以做出什么努力。 本期嘉宾: 刘知远,清华大学计算机系副教授、面壁智能首席科学家 肖朝军,清华大学计算机系博士后、面壁智能 MiniCPM 系列文本模型负责人 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -大模型时代的“摩尔定律” 02:09 Gemini 3 和 Nano Banana Pro 的启发:统一的“自回归式视觉+语言生成”即将突破 04:31 大模型演进的两条主线:能力和效率 10:23 和摩尔定律一样,“密度法则”是行业现实,也是“自我实现” 18:43 每 3.5 个月,大模型的能力密度翻一番 21:01 2023 年下半年的抉择:花几千万再训一个更大的模型,然后呢? -提升密度的四个环节 27:08 架构、数据、算法、软硬协同优化 30:41 (1) 架构:MoE (混合专家系统) + 注意力机制改进 34:28 (2) 数据治理:Ultra-FinWeb 用 1/10 数据量达到更好效果 40:24 (3) 算法:RL 还没有 Scaling Law,接下来可能有两条路 49:21 (4) 软硬协同优化 52:02 InfLLM-V2 的核心更新:把稀疏注意力做到预训练阶段 55:18 注意力改进趋势:长文本不仅是长输入,更多关注“长输出” -大模型上车、上手机 58:53 5 年内,手机可跑 GPT-4~5 级别的模型 01:06:23 大模型在汽车上已开始量产落地 01:10:34 “别人得到的,不一定是你失去的”,AGI 既会发生在云端,也会发生在终端 01:15:07 未来入口也许不是手机,而是属于每个人的移动计算终端 -AGI 下一步:自主学习 + 分布式的智能 01:17:40 自主学习→AI 协作网络→真正的创新 01:21:04 2023 年初,有巨头说世界上只会拥有几个大模型,就像 1943 年,IBM 董事长曾说全球不需要超过 5 台主机 01:24:46 AI 助手帮成为更好的工作者 01:28:53 不担心生产过剩,未知领域还太多 01:31:39 机器制造机器,AI 制造 AI 01:40:01 ☆连点成线 相关链接: 晚点聊 143 期:《再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进》 晚点聊 103 期:《用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进》 剪辑制作:Nick 附录,本期提到的一些论文(更多具体名词解释,见本期文字版): Densing law of LLMss(《大模型的密度法则》) Efficient GPT-4V level multimodal large language model for deployment on edge devices(本期中提到的,具身行业喜欢引用的图的原始论文。) InfLLM-V2: Dense-Sparse Switchable Attention for Seamless Short-to-Long Adaptation(InfLLM 稀疏注意力改进的第二版。) 本期主播: 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

101分钟
9k+
1个月前

143: 再聊 Attention:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进

晚点聊 LateTalk

「不仅是提效,线性注意力在数据受限情况下的更多潜力。」 今年初的两期节目(103、104 期)里也讨论过注意力机制,这是大语言模型的核心机制。 9 月 和 10 月,阿里和 Kimi 都发布了相关进展,而且都用到了一个线性注意力成果,DeltaNet。 本期嘉宾,就是 DeltaNet 的核心贡献者之一,现在在 MIT 读博士的杨松琳,她也是线性注意力开源小组 FLA 的发起者。 这期节目在 25 分钟以前很硬核,松琳讲了线性注意力和 DeltaNet 的发展脉络,为何 21 年刚被提出时没引起太多注意,后来怎么进化的。 25 分钟以后,是关注 AI 比较多的文科生,比如我也能完全跟上的部分。我们讨论了,重新去做 full attention 的 MiniMax,以及未来要在旗舰模型上用线性注意力的 Kimi 和阿里的不同选择;线性注意力的优劣势;以及一些脑洞——如果算力无限,还需要线性注意力?松琳给了很有启发的回答。 最后半小时,松琳分享了她作为研究员,怎么习得交叉技能的,怎么开始发起FLA小组等成长经历。 本期嘉宾:杨松琳,MIT 博士生在读,DeltaNet 贡献者 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -DeltaNet 的诞生演进与近期动向 02:07 注意力机制是什么? 04:21 DeltaNet 的提出,用 Delta Rule 来增强 in-context retrieval 09:41 近年的改进主要是模型架构,而非“更新规则” 14:25 阿里 Qwen 团队 apple to apple 比较几种线性注意力混合方式;Kimi Linear 对 Gated Delta 的具体改进 17:00 更新规则和模型架构改进的区别:更新规则是在算子层面“动刀” 19:50 算法出身,自学 Infra;学习 Hazy Research Group 的风格 23:28 Qwen 和 Kimi 大概率在下一代旗舰模型用线性注意力,而 MiniMax 用回 full attention;DeepSeek 目前释放的改进都是“稀疏注意力” 37:07 稀疏注意力 vs 线性注意力潜力对比 39:40 即使算力无限,线性注意力仍有价值,因为它在有限数据中的学习效率更高,而高质量数据正是当前瓶颈 42:28 线性注意力在状态追踪上也可能有效果优势,而状态追踪对 Agentic 很重要 47:33 线性注意力的“归纳偏见”和 The Bitter Lesson:先验与 scalable 并不矛盾 49:30 回应 RWKV(原始智能)彭博:从未说发明 DeltaNet,一直在给 Schmidhuber 署名 -Householder 与 DeltaNet 的联想,像运营产品一样运营技术社区 51:51 关注注意力改进的起点,数学知识、Infra,交叉能力怎么积累? 58:48 发现 Hoseholder 累乘和 DeltaNet 关联的过程 01:02:44 AI 何时能像人这样产生联想?——Prompt 合适,大模型应该能独立发现这个算法 01:04:11 FLA 小组的产生,受 Tri Dao 做 FlashAttention 的启发,像运营产品一样运营技术社区;Kimi 从 FLA 小组招募了线性注意力研究者 -注意力改进的未来趋势 01:11:24 稀疏注意力的改进,DeepSeek 年初 NSA 到最近 DSA 的变化 01:16:44 线性注意力的改进,从线性混合全注意力,到线性混合稀疏注意力(比如混合 DeepSeek DSA 和 Kimi KDA 😀 01:21:10 更广泛来说,关注何种模型演进?——持续学习 相关链接: 图文版:《再谈注意力:阿里、Kimi 都在用的 DeltaNet 和线性注意力新改进丨晚点播客》 晚点聊 103 期:《用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进》 晚点聊 104 期:《我给线性注意力找“金主”,字节 say No,MiniMax say Yes》 剪辑制作:Nick 附录,本期提到的一些论文(更多具体名词解释,见本期文字版): Transformers are RNNs: Fast Autoregressive Transformers with Linear Attention Linear Transformers Are Secretly Fast Weight Programmers Parallelizing Linear Transformers with the Delta Rule over Sequence Length Gated Linear Attention Transformers with Hardware-Efficient Training Recurrence-Complete Frame-based Action Models 本期主播: 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

87分钟
12k+
2个月前

142: 一款能主动教学的 AI 产品是如何出现的|对话斑马 CPO 修佳明

晚点聊 LateTalk

教育或许是最难被技术改造的领域,因为它太强调互动、个性化的体验与启发性的反馈,这个过程既难标准化,又无法快速复制。 直到大模型的出现,让人第一次看到了教育被技术大规模改造的可能性。市场上旋即涌现出来的各种五花八门的 AI 教育产品,它们从各种层面试图运用大模型的能力,但也反映出在原理技术到面向市场的商业产品之间,大模型在教育场景的落地还存在着一条难以被清晰描摹的鸿沟。 今天的播客,我们与斑马首席产品官修佳明探讨了这条鸿沟本身,以及斑马逾越它的方式。 基于大模型特点,原生构建的 AI 教育产品应该是什么样的?如何摆脱工具属性,让大模型 Agent 成为一个可以主导教学过程的教育产品?如何设计教学梯度、节奏和目标,既能发挥大模型的主动性,又不让一切偏离教学目的本身?如何让大模型更好理解人类在教学领域积累的各种经验,让它更好实践已被证明有效的各种教学法和教育心理学方法? 对这些问题的回应将决定一款 AI 教学产品的本质,进而决定它的商业化前景。修佳明给出了斑马的回答。 本期节目由 斑马口语 特别支持播出。 本期嘉宾:修佳明,斑马首席产品官 本期主播:申远,晚点 latepost 记者 时间线跳转: -Part1:斑马心中的全栈式 AI 教育产品 04:36 确定性的方向 08:01 与模型“搏斗” 13:58 为什么开发 delay 了? -Part2:主动性 VS 被动型,斑马产品的核心差异 20:56 从维持能力到突破能力 24:08 让大模型学会人的教学经验与教学法 29:36 更难的是对(教学)难度的控制 34:16 这种模式适合所有人吗? 35:54 让 AI 提供一种教学情绪价值 41:38 对 AI 外教人格的理解 -Part3:将 AI 产品推向市场 47:37 试用用户的反馈与规则设定 52:06 如何衡量 AI 的教学能力? 56:28 未来的 AI 教学产品会如何发展 59:22 如何运用数据和经验:斑马的 AI 壁垒在哪里 01:04:05 AI 产品还是教育产品?斑马的付费和定价策略 相关链接: 《主导型教育 Agent 产品,是口语学习的终极答案吗?》 本期主播:申远,晚点 latepost 记者 ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

75分钟
6k+
2个月前

141: 大疆激光雷达前负责人做了台“电动轮椅”?与 Strutt 洪小平聊创业两年半:不做人形也能通向具身

晚点聊 LateTalk

「大家更关注 PMF 的 M(需求),但有时 P(产品)做得足够好,M 就能自动打开。」 “大疆系”正成为创投圈的一股小风潮。2023 年夏天,洪小平创立 Strutt(若创科技),他曾任大疆光电部及激光雷达产品线览沃负责人。 Strutt 的首款产品 ev¹ 即将在明年初正式发售 ,它看起来是一台电动轮椅,而洪小平告诉我,ev¹ 不是一台智能轮椅,“而是一种新的移动出行设备”。这听起来有些抽象,直到我在旧金山遇到了 ev¹ 的用户:双臂残缺,只有两根手指的 Usman;脊椎脆弱的 16岁少女 Ali,和患有多发性硬化症的 Joe。 旧金山试用会现场,Scott、Micah 两位 YouTube 博主和 Usman 坐着 ev¹ 比赛,看谁先到达车道末端。(这张照片里就有两台 Insta360 X 系列全景相机,现场也有好几台大疆 Pocket 3。) 我更多感受到的他们与我们的相同。他们不仅想要基础保障,也想要更好的生命体验。科技爱好者 Usman 戴着 Apple Watch 和 Ray-ban Meta,他曾用 Vision Pro 操控 ev¹;Ali 给轮椅编织了花朵;Joe 那天分享了很多他年轻时旅行和玩帆船的旧照片。他们渴望的不是另一台轮椅,而是减少出行顾虑,能去更多地方的自由。 我自己也两次试用了 ev¹,Copilot+ 模式的驾驶体验对我来说也很有趣。洪小平设想,在大型公园、机场等区域,更多人可能都需要 ev¹ 这样的设备。 本期,这位曾经在伯克利研究纳米材料的物理学博士,分享了他在大疆,如何从研究者转型为业务负责人;以及创业两年半以来,组建团队,开发产品、做减法的历程。 本期访谈的图文版:《大疆览沃前负责人洪小平创业:我做的不是一台电动轮椅》 本期嘉宾:洪小平,Strutt 创始人兼 CEO 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -投资人总问:为什么你们不做人形机器人? 02:07 伯克利物理学博士→组建大疆光电部:奔着量产做激光雷达 08:26 大疆→南方科技大学:新工科教育 & 思考创业,锁定「机器人」方向 14:03 直接做人形机器人和具身“终极形态”,是“有方法、没路径” 18:04 OpenAI 加大投入 LLM 时,已有早期信,具身没到这个状态;识别早期信号的核心是数据积累 22:43 看到“老龄化”去收,就是它了! 25:13 个人移动设备能获得宝贵的家庭、生活场景数据 -ev¹ 的诞生,它不是电动轮椅 29:28 ev¹ 是泛个人出行设备,它的完整体验 35:07 出行的自由和喜悦,不分健康或残疾、衰老或年轻 41:13 大家更关注 PMF 的 M(需求),但有时 P(产品)做得足够好,M 就能自动打开 43:26 ev¹ 的开发,从做加法到做减法 47:51 观察用户说不出来的需求; 51:19 ev¹ 也是一个 Robot Helper 和机器人平台:可加传感器、执行器、计算单元等配件 56:50 在双滚机上做 200 万圈测试 58:33 “产品真正帮到人”的感觉,很触动 01:00:54 Go to Market 策略:定价、渠道、规模 -什么是一个好团队?大疆怎么又极致,又“舒适”? 01:03:55 创业,从“定义一个好团队”开始 01:07:25 大疆的“舒适”:技术说话、以结果论英雄、可以专注自己的事 01:12:35 应对未来可能的竞争:品牌、专利布局、团队综合性,本质是团队效率 01:19:33 消费科技公司,在高效 vs 速度上的分布:追觅、Insta360、大疆 01:22:39 为什么大疆到 2019 年才定成文价值观? 01:24:43 Next Question:跨越鸿沟——ev¹ 这样的产品怎么进入大众市场? 01:28:06 连点成线:往期推荐 附(播客中提到的部分术语、人物的表达可见图文版,如 VLA、PaLM-E、RT-2、吴景深等,以下摘录文字版中没提及的部分): 王铭钰:汝原科技创始人,大疆前研发副总裁,主导多款旗舰无人机的工程体系建设。(节目中提到的邀请洪小平加入大疆的港科本科同学) 魏基栋:松灵机器人创始人兼 CEO,大疆 Robomaster 业务的一号员工和联创,2016 年创业;库犸智能割草机即由松灵推出。 拓竹:一家 3D 打印机公司,旗下也有 WorldMaker 3D 模型共享平台;由陶冶创立,他曾任大疆动力系统部门经理、Mavic pro 产品经理、大疆消费级无人机事业部负责人。 Invacare:美国医疗辅助设备公司,以轮椅、助行器等康复产品为主营(节目中提及的已退市的行业公司)。 肖文龙:Strutt 联创,大疆早期动力系统技术负责人。 大疆 Inspire 产品线:定位于“专业级航拍/影视器材”的无人机序列,是航拍行业的主力设备与标杆产品。 张富:香港大学 工程学院机械工程系副教授,研究方向为激光雷达-惯性/视觉融合 SLAM 算法。 激光雷达 SLAM 算法:基于激光雷达点云定位与建图的算法,让机器人在未知环境中自行导航。 相关链接: 晚点聊 120 期:《科创板后再访Insta360刘靖康:这何尝不是一种极限运动!》 晚点聊 118 期:《天生卷王郭人杰:从 97 年的扫地机器人总裁到创业做家庭通用机器人》 晚点聊 87 期:《家里又多了个“怪东西”!与云鲸聊新消费电子品的诞生》 剪辑制作:甜食 本期主播: 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

90分钟
6k+
2个月前

140: AI for Science,从开始到现在 | 对话深势科技张林峰、孙伟杰

晚点聊 LateTalk

「从物理的黄金时代到 AI 的黄金时代。」 大模型热潮正在深入一个硬核领域:AI for Science,用 AI 加速科学发现。由斯坦福大学前校长参与创立的 AI for Science 公司 Xaira Therapeutics,去年一启动就募资超 10 亿美元;OpenAI 也在今年成立“OpenAI for Science”部门,刚在上个月雇了一位黑洞理论物理学家。 早在 6 年多前,中国的 AI for Science 创业实践已经开始。最适合讲述这个故事的是张林峰和孙伟杰。 2018 年,25 岁的他们创立深势科技。 2022 年 3 月,张林峰写文:《AI for Science 2022:未来已来,即将开始流行》https://mp.weixin.qq.com/s/xhGVSY5jBqVMiXrdSKgdcQ 。8个月后,ChatGPT 才发布。 深势的起点,是用 AI 加速求解量子物理中的“第一性原理计算”,即求解“薛定谔方程”等一系列基础量子物理方程。这是量子论和 AI,跨越百年的两个黄金时代的相遇。 1993 年出生的张林峰来自山西汾阳,因参加物理竞赛保送北大。在定位于跨学科教育的元培学院,他同时修了物理、数学、计算机。与张林峰同龄的孙伟杰来自佳木斯,主修政经哲。两个北方高个儿男孩是院篮球队、羽毛球队队友,也在元培学生会体育部搭档。 大二时,元培体育部举办趣味羽毛球赛后,孙伟杰(左)和张林峰(右)从邱德拔体育馆骑车回宿舍。 6 年多来,深势科技推出了 Hermite 药物计算设计平台、Piloteye 能源电池研发平台;以及一系列预训练科学模型,如分子大模型 Uni-Mol、实验表征大模型 Uni-AIMS 、蛋白质大模型 Uni-Fold、基因大模型 Uni-RNA 等;科学文献大模型 Uni-SMART;和综合这些积累的科研平台与科研 Agent,“玻尔科研空间站” 和 SciMaster;服务了宁德时代、比亚迪、多氟多、长安汽车、京东方、东阳光药、人福医药、诺泰生物等企业客户。 本次访谈,我们与张林峰、孙伟杰一起回顾了他们亲历的 AI for Science 从开始到现在的发展脉络,深势科技在有限资源下经历的焦灼、抉择,和他们在科研平台与垂直应用间的取舍。 多年前,杨振宁曾在一次高能物理学术讨论会上说:“The party is over”,上一个物理大发现的时代已然远去。大三时,张林峰一度迷茫:“我们这一代希望从底层科学出发做点儿事的同学,都缺点儿让人兴奋的大问题。” 现在,派对又开始了。 本期访谈的图文版:__ 《对话深势科技张林峰、孙伟杰:AI for Science,从开始到现在》 **本次访谈之后也会发布视频版,可在抖音、B站、小红书、微信视频号搜索“晚点聊”或“晚点”观看。* 本期嘉宾: 张林峰,深势科技创始人兼首席科学家 孙伟杰,深势科技创始人兼 CEO 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 时间线跳转: -起点:用 AI 加速“第一性原理计算” 01:32 93 年生人学物理,the party is over 的迷茫 08:42 用 AI 加速第一性原理计算:薛定谔方程、密度泛函、分子动力学 -提出 DeePMD:从“两亿核时”到“笔记本跑半小时” 21:31 第一个 milestone:用一套统一方法表示多种“不变性” 26:27 普林 2017 年的 200 多块 P100→DeePMD-kit→DeepModeling 开源社区 29:51 AlphaFold 和 DeePMD,AI 做科研的两种方式 -起步的 5 年:是公司,也是“大学” 32:38 毕业、回国、创业:机会是 AI for Science,不是 get simulation done 然后发论文 42:06 做微尺度的“达索系统”,把量子物理软件化 56:14 人才培养:在 DP “读大学”的少年们 -从机器学习到 Agent,AI 科学家,AI for Science 的五个阶段 01:04:37 机器学习数理建模→预训练→大语言模型→科研 Agent→AI 科学家 01:16:20 Agent 正在重塑科研范式 01:22:46 “科研无国界”被挑战,在中国,更能推动开源、开放 01:29:00 垂直还是平台,一个必须做的取舍 01:32:57 诺奖表彰“第一个”,而基础平台要做“最后一个” 01:39:24 我们为 AI 科学家做好准备了吗? -热血少年、沙漠流浪、灌篮高手 01:49:13 欲望与勇气,《牧羊少年的奇幻之旅》 01:55:33 “老爹,你最光辉的时候是什么时候?”“就是现在!” 01:57:21 “理想主义的实干者才能改变世界” 01:57:59 Next Question:Innovator 什么样?第一批 AI 发现的新成果 02:04:04 连点成线:不约而同,我们在好多期节目里都聊到了 AI 加速科学发现 相关链接: 张林峰:《AI for Science 2022:未来已来,即将开始流行》 张林峰:《在PD“读大学”的少年们》 晚点聊 116 期:《当AI研究者写科幻,与Meta田渊栋聊他的智能想象:我们终会“所思即所得”》 晚点聊 103 期:《用Attention串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进》 晚点聊 101 期:《与王小川聊AI✖️医疗:通向“生命科学的数学原理”》 附:本期节目中出现的术语、人物、公司 鄂维南:应用数学家,中国科学院院士,张林峰在普林斯顿的博士生导师之一;主攻多尺度建模与机器学习在物理系统中的应用。 黎曼几何:研究带曲率空间的几何结构,是广义相对论数学语言的核心,由黎曼在 1850 年代提出。 古典微分几何:研究曲线和曲面的局部几何性质,是现代几何的基础框架,成熟于 1820 年代。 弦论:把“点粒子”换成一维弦来描述宇宙的高能物理理论,试图统一量子力学与引力。 冯济:北京大学量子材料科学中心,博雅特聘教授;罗纳德·霍夫曼的学生。 罗纳德·霍夫曼(Roald Hoffmann):诺贝尔化学奖得主,以理论化学和化学键研究著称。 邓肯·霍尔丹(Duncan Haldane):诺贝尔物理学奖得主,因拓扑量子物态理论贡献而闻名。 罗伯特·卡尔(Roberto Car):计算化学家,张林峰在普林斯顿的博士生导师之一,Car–Parrinello 方法共同提出者。 Michele Parrinello(米歇尔·帕里内洛):Car–Parrinello 方法的共同提出者。 Ab intio Molecular Dynamics 从头算分子动力学方程 :Roberto Car 和 Michele Parrinello 在 1985 年发表了论文(Unified Approach for Molecular Dynamics and Density-Functional Theory(《分子动力学和密度泛函理论的统一方法》),提出了Car-Parrinello 分子动力学方法。 薛定谔方程:量子力学的根本方程,描述微观粒子的波函数随时间如何演化。 波函数:在量子力学中刻画系统全部信息的数学对象,其平方给出概率密度。 密度泛函方程:密度泛函理论中的基本方程,通过电子密度而不是波函数求体系能量。 王涵:北京应用物理与计算数学研究所科学家,Deep Potential 的合作者之一 Deep Potential Molecular Dynamics(DeePMD 深度势能分子动力学:深势团队提出的深度势能模型方法,基于神经网络学习原子间相互作用。 DeePMD-kit:DeePMD 方法的开源软件套件,用于训练势能模型并进行分子动力学模拟。 DeepModeling:围绕物质模拟的开源生态,包括 DeePMD 在内的工具集。 汤超:物理学家、生物物理与复杂系统研究者,在理论物理与系统生物学有影响力。2018 年与鄂维南在学术研讨会中一起提出 AI for Science。 薛定谔公司(Schrödinger):成立于 1990 年,从计算化学软件起步,后来扩展到药物发现平台。 Accelrys(现 Dassault BIOVIA):成立于 2001 年(由 Molecular Simulations Inc. 等合并而来),在 2014 年被达索系统收购并更名为 BIOVIA。 达索系统(Dassault Systèmes):成立于 1981 年,最早做 3D 设计与仿真软件(CATIA),后来扩展到材料、生物、制造等全栈建模平台。 玻尔科研空间站:深势团队打造的 AI for Science 计算科学平台。 SciMaster:深势科技 2025 年夏天推出的科研智能体 Uni-Mol:用于分子结构与药物发现任务的通用深度学习模型。 Uni-RNA:使用深度学习处理 RNA 结构与设计任务的模型体系。 Evo 2:2025 年 2 月,由 Arc 研究所、斯坦福、英伟达合作推出的生物分子科学基础模型。 AlphaGenome:2025 年 6 月 DeepMind 发布的一款能解读基因组功能和预测变异效应的模型。 Future House:2023 年 Google 前 CEO 埃里克·施密特支持成立的 AI for Science 公司,主攻新材料、新药研发和 AI 驱动实验。 剪辑制作:Nick 本期主播: 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

126分钟
13k+
2个月前

125: 用AI复刻一个「我」,与心识宇宙陶芳波聊身份模型

晚点聊 LateTalk

「感觉自己永恒了。」 本期节目的嘉宾,心识宇宙创始人陶芳波有一套自己的 AI 助手分类法,分类标签都是人称代词: 第一类 AI 助手主攻陪伴,对应人称代词 her,就像电影《她》中承接主人公各种情绪的“萨曼莎”;第二类助手负责执行具体任务,类似《钢铁侠》中的智能管家“贾维斯”,对应人称代词 him。 陶芳波创立的心识宇宙(Mindverse),正在做第三类 AI 助手:me。他们想帮用户复制自己的“第二自我”,构建“身份大模型”(AI Identily Model)。这模型的认知、偏好、价值观和用户个人对齐,能代表用户发起、完成或验收工作。 创业前,陶芳波一直沿着 AI 研究的主线前进。他先后就读于清华大学、伊利诺伊大学香槟分校,毕业后第一份工作是在 Facebook 使用机器学习方法挖掘社交关系,随后到阿里达摩院神经符号实验室,调动跨学科知识,让 AI 模拟人脑。GPT-3 到来后,他决定下场创业。 陶芳波认为,当下已经有足够多的工具满足用户的日常需求。普通用户可能并不需要更多 AI 技术加成的工具,但需要一个 AI 版的第二自我,代理自己去和世界交互。 大部分创业公司让模型和用户对齐的方式还是把历史对话、用户偏好等内容作为上下文输入模型,每个用户使用的底层模型相同,只有上下文不同。心识宇宙团队则主张根据用户数据微调模型,把记忆、情感、价值观参数化。 除了打造身份模型的方式外,陶芳波还在本期播客中分享了身份模型的具体使用场景,以及如何通过产品设计让身份模型和用户“共生”,由此减少用户上传数据的阻力、方便身份模型迭代。 在陶芳波的终极想象里,人人拥有身份模型,意味着现实中运行的社会网络可以被复制到线上,不过在线上交互的 AI 不受人类打字、讲话速度限制,效率更高。身份模型替代人类收发任务、相互协作,人们将会从被迫使用各种工具的状态中解放出来。 本期嘉宾:心识宇宙创始人 陶芳波(即刻 @Tao水木八公) 时间线跳转: - 边创业边研究机器学习的 9 年求学生涯 01:52 大四开始第一段创业,做微博时代的达人撮合平台 04:21 读博前,自由度更高的神经网络成为显学 07:00 专攻数据挖掘方向,建模恐怖分子组织架构 10:56 读博期间的另一个创业项目:学生外卖 - 从 Facebook 到阿里,做能参与人类社会活动的 AI 13:33 既然 AI 有自主性,就要做有社会参与的 AI 16:13 过于发达的工具,让人成了工具的接口 19:28 毕业后,先去 Facebook 为社交网络建模 20:51 阿里时期,阅读认知科学、禅宗相关的书,思考如何造人 - 创业与重定向:从做 him/her 到做 me 25:46 GPT-3 出现,亲自下场的时候到了 28:16 Mindverse 重定向,从做 him/her 到做 me 33:03 用户训练完身份模型后,“觉得自己永恒”了 35:33 两个 AI 身份项目:Me.bot 开箱即用,Second Me 对外开源 37:26 不是 AI 分身,而是 AI 身份 44:04 Me.bot 的最新功能:共鸣、Talks 01:14:02 大量需要一个 AI 身份介入、互动的场景已经存在了 01:17:40 中国互联网数据孤岛和 AI 的通用性矛盾,一定会被打破 01:19:49 用开源模型、本地训练的方式帮用户克服递交数据的心理壁垒 01:23:31 设想中的商业模式:身份即服务 - 身份模型的训练方法 01:25:36 不用 RAG,把对个人的理解内化在参数中 01:29:37 把客观数据变成主观数据,重新抽象、总结 01:36:30 微调不会让模型忘掉知识,但可以放大个人相关的知识 01:39:19 公司周年庆上,身份模型预测出自己的讲话内容 01:41:41 一百份思考、一百份笔记,足够训练出一个 Second Me 01:42:43 模型应该每天微调一次,就像人每晚睡觉时形成记忆 01:44:36 只有让 AI 和用户“共生”,才能降低传输数据的阻力 * 相信非共识项目有成为共识的那一天 01:49:35 大厂有更多数据,更适合做身份模型,但小公司没负担、更高效 01:53:00 买量不可取,更希望通过口碑获取用户 01:54:54 不赶 AI Agent 的热门,2026 可能也是身份模型之年 剪辑制作:甜食 本期主播:孙海宁(微信 @_HaydenSun) ![]https://hv.z.wiki/autoupload/20250422/AHFm/1788X252/WechatIMG1762.jpg ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

126分钟
7k+
2个月前

139: ICCV最佳论文、光年之外、Sand.ai:曹越十年AI之旅,从研究者到CEO

晚点聊 LateTalk

「从模型驱动到垂直整合:Gaga-1 是第一个产物。」 图注:飞书“智能会议纪要”功能为本次播客生成的概要图。 本期节目由飞书特别支持播出!欢迎大家尝试“智能会议纪要”(https://www.feishu.cn/product/ai-meeting-summary?hideHeader=1&utm_from=latetalk),功能,点击前文晚点转述链接,可申请 1 个月免费使用。 2024 年初,刚听说曹越开始新一次创业时,我就找他聊过一次。那时他有一个吸引科技报道者的标签:光年之外联创。 今年 10 月的这次正式访谈中,我有点儿理解了为什么王慧文在 2023 年初见了那么多研究者后,会选择曹越来做技术合伙人——曹越是少数在 ChatGPT 之前,预判到大模型热潮的中国研究者。2021 年,他拿下 ICCV 最佳论文后,离开了微软亚研院,加入了国内最早做大模型的机构,智源研究院。 让我稍感意外的是,曹越做研究员时,就格外关注组织与机制;2021 年,在看到 DALL-E 和 CLIP 后,他开始研究 OpenAI 是怎么协作的,这也是他加入智源的原因之一。 这期节目,曹越回顾了他在清华读本科时,如何看到深度学习,那篇 ICCV 最佳论文的诞生;他从研究员到创业者的转变;对 Sora 的观察,以及 Sand.ai 打造新一代模型 Gaga-1 的思考与实践。 通过学习 OpenAI 等全球顶尖公司,更重要的是通过自己的实践和反馈,曹越现在的认知是,要做一个垂直整合的“端到端”的组织,更好平衡模型进展与从需求出发,10 月中旬 Sand.ai 新发布的模型 Gaga-1 就是垂直整合的产物。它聚焦解决人物表演问题,“人物不一致、表演假”,是许多试图使用 AI 的内容制作者之前最大的痛点。 图注:在 Gaga AI 网站 (https://gaga.art/zh/app) 上,现在可体验音画同出、聚焦人物表演能力的视频生成 在技术驱动的 AI 创业时代,一个模型出身的创始人,如何判断趋势,又怎么学习做 CEO?曹越分享了他的探索和体验。 本期嘉宾:曹越,Sand.ai 创始人兼 CEO 本期主播:程曼祺,《晚点 LatePost》科技报道负责人 **本期播客也有视频版,可在抖音、B站、小红书、视频号搜索《晚点 LatePost》观看。* 时间线跳转: -从 ICCV 最佳论文到研究 OpenAI 组织力:设计一个系统,最大化压榨算力 02:08 2014 年转向深度学习 03:37 在微软亚研院学到的-1:关注最重要、且有提升空间的 topic 05:09 Swin Transfomer 的诞生,Transformer 被引入视觉任务的两个阶段 11:15 在微软亚研院学到的-2:判断 topic 还不够,得以足够资源做出极致效果 13:02 CLIP、DALL·E 冲击:OpenAI 不是论文驱动,而是设计一个系统,最大化压榨算力 18:10 从 GPT-3 到 ChatGPT,3 年疫情阻隔使 OpenAI 巨变被忽略 -中国为什么没有出现 OpenAI 这样的组织?王慧文说是“不够富” 21:30 和王慧文、梁文锋聊;他们都在 23 年初遍历国内研究者 26:57 问老王:为什么中国没有出现 OpenAI?——“不够富” 32:54 光年之外的经验:一开始就确立了正确的“找人方法论” 34:36 CEO 容易焦虑,这时可以想想大问题 -“真的了解创业后,突然感觉什么都对了” 37:16 23 年 8 月开始思考创业:视频生成让自己兴奋 40:54 创业前的自我觉察:ambitious 46:59 第一个模型 Magi-1 花了 1 年多:低估了自回归路线的难度 50:23 正在发生的业务窗口是“音画同出” -“Sora 2 是一个端到端的模型,OpenAI 是一个端到端的组织” 52:36 Sora 2 的 3 个特点,第三点最让曹越惊艳 58:23 Sora 2 怎么实现“端到端叙事”的? 01:03:58 Vibes vs Sora,Meta 是缝合,OpenAI 是整合 -Gaga-1:从需求出发,优先解决人物表演 01:06:53 新模型 Gaga-1 聚焦人物表演,成本大幅下降 01:10:33 用 AI 做短剧,卡点正在人物表演和成本;Sora 的新启发是叙事 01:15:27 需求分析:短剧制作、广告片、C 端斗视频 01:19:42 Sora 能否成为 C 端新平台?曹越的两个判断指标 -垂直整合组织的核心就是:不同背景的人,能对齐上下文 01:23:10 PMF 一直讲,一直难:因为模型和产品的磨合就是要花时间 01:28:07 垂直整合:不同背景的人频繁交流,对齐上下文 01:31:16 再看“模型即产品”:早期产品跟着模型走,现在要互相放大 -成为 CEO 01:38:41 一个“专业”的 CEO 01:42:04 “Gemini 老师”的最大作用是对齐上下文 01:50:27 所有内容的终局都是“叙事” 01:52:29 老王的建议:研究皮克斯商业模式 01:56:06 研究者和 CEO 的“夹角” 01:58:24 最优先级的工作 02:01:01 Next Question:ASI 到来后会怎样 02:03:12 连点成线:往期推荐 相关链接: 图文版:《对话曹越:马尔奖、光年之外、Sand.ai,研究员到 CEO 的十年串起大模型变迁》 晚点聊 136:《Sora新世界 & Lovart 4个月复盘 | 与陈冕聊怎么做垂类Agent|Agent#5》 晚点聊 58:《光年之外联创再出发,与袁进辉聊 AI Infra 到底做什么?》 晚点聊 39:《从美团收购光年之外,聊聊科技公司收并购的操作与故事》 附录: CNN(卷积神经网络):由 Yann LeCun(杨立昆) 等人在 1989 年提出,用于从图像等网格数据中提取局部特征,是深度学习在计算机视觉领域的基础架构。 Transformer:由 Google Brain 在 2017 年 提出,用“自注意力机制”替代循环结构,实现了高效的并行训练,成为目前大模型的核心架构。 iGPT(Image GPT):由 OpenAI 在 2020 年提出,将 GPT 语言建模思想用于图像像素预测,验证了 Transformer 可用于视觉生成任务。 ViT(Vision Transformer):由 Google Research 在 2020 年提出,将图像分割为小块后输入 Transformer,首次在大规模数据上超越 CNN 的图像识别性能。 Swin Transformer:由微软亚洲研究院刘泽、曹越等人在 2021 年提出,通过“层次化窗口注意力”结构改进 ViT,使 Transformer 能高效处理不同尺度的视觉任务。 DALL·E:由 OpenAI 在 2021 年 发布,将 GPT-3 与图像生成结合,可根据文字生成符合语义的图像。 CLIP:由 OpenAI 在 2021 年提出,通过大规模图文对比学习,实现文本与图像的语义对齐,是后续多模态系统的基础模型之一。 Instruct-GPT:由 OpenAI 在 2022 年 发布,通过基于人类反馈的强化学习(RLHF)让 GPT-3 更好理解指令,是 ChatGPT 产品化的重要前提。 剪辑制作:甜食 本期主播: 小红书@曼祺_火柴Q即刻@曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

126分钟
9k+
3个月前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧