晚点聊 LateTalk
《晚点 LatePost》的播客

Album
主播:
高洪浩ALaN、MasterPa、我的兄弟叫铁马、曼祺_MatchQ
出版方:
晚点 LatePost
订阅数:
103175
集数:
111
最近更新:
2天前
评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
播客简介...
《晚点聊 LateTalk》是《晚点 LatePost》出品的播客节目 由洪浩、陈晶、曼祺和汉洋主持 片言可以明百意,坐驰可以役万景
晚点聊 LateTalk的创作者...
高洪浩ALaN
MasterPa
我的兄弟叫铁马
曼祺_MatchQ
晚点聊 LateTalk的音频...

111: Pokee.ai 朱哲清的 Agent 造法:强化学习作后端,语言模型作前端

「长期看,LLM 是 Agent 和人类之间交互的前端,后端则靠 RL 模型完成工作。」 几乎所有主流 AI Agent 产品,都把大语言模型(LLM),或者它的多模态升级版当作“大脑”,靠一个或几个 LLM 编排工作、调用工具。 但也有不同的路。这期节目的嘉宾,Pokee.ai 的创始人朱哲清(Bill),认为 LLM 只是 Agent 理解人类需求、向人类递交产出的“前端”,后端决策、完成任务则可以靠用强化学习方法训练的、不依赖自然语言的模型完成。 Bill 提到,把 LLM 当作大脑时,Agent 调用工具的能力有限。这是因为 LLM 使用工具时,需要先把工具描述、输入、输出等相关信息传入上下文,而 LLM 支持的上下文长度有限。把 Agent 的决策中枢换成另一个强化学习模型可以解决这个问题。 本期节目中,Bill 还聊到优秀的通用 Agent 需要具备四个要素:实现任务比人快、无需人工干预、能读取信息也能写入信息、成本低。Agent 产品的壁垒不在技术,而在于和用户的工作流深度绑定。 此外,我们还和 Bill 聊了他对通用 Agent 接下来竞争态势的判断,以及他在强化学习还并没有成为显学时,便相信强化学习潜力的原因。 Bill 本科开始便在海外留学,不熟悉、常用一些专业术语的中文表达。节目中高频提及的英文术语,可参考 Shownotes 文末附录。 本期嘉宾: Pokee.ai 创始人,前 Meta 应用强化学习负责人、工程经理朱哲清 时间线: -创业前,花近十年研究、落地强化学习算法 04:02 一边在斯坦福读博士,一边在 Meta 上班,每周工作 110 个小时 07:20 拒绝 LLM 创业机会,留在强化学习主航道上 10:17 刚开始研究强化学习的时候,强化学习还并不是显学 16:52 DeepSeek R1 带火了强化学习,让投资人意识到强化学习重要性 -强化学习做 Agent 的优势 19:26 现有 LLM 写入能力较弱,调用工具数量有限 23:51 长期看,LLM 可能只是模型和用户的交互层,Agent 之间沟通不一定用语言 -如何设计一款 Agent 产品,服务专业用户 31:02 保留用户控制节点,避免“自由落体”的失控感 36:36 Pokee.ai 想服务专业用户,未来还要进入企业工作流 43:46 一项子任务失败,不一定挡住 Pokee.ai 完成其他子任务 45:33 抛开 browser-use,强化学习 Agent 完成一项任务只需要数十秒 46:53 Pokee.ai 最初没用 MCP,团队自己设计更简单的协议 48:47 目前主流做 Agent 的方法还是以 LLM 为核心 50:00 优秀 Agent 的四要素:速度快、无需干预、能读能写、成本低 -创业故事:从垂直 Agent 回归通用 Agent 58:20 Pokee.ai 团队全职员工只有四人,成员主要来自 Meta 59:30 早期产品:旅行规划助手 / Shopify 助手 01:02:07 强化学习爆火后,回归创业初衷做通用 Agent 01:07:33 Manus 出圈是意料之内 01:09:54 Pokee.ai 发布产品不会用邀请码,单次任务成本是同类产品的 1/10 01:10:59 技术不是 Agent 的护城河,重要的是和用户工作流绑定 01:20:24 Pokee.ai 在做通用 Agent,但也能帮垂直 Agent 落地 01:22:15 Agent 行业最后会存留三到五家公司,接下来是各个通用 Agent 差异化的时候 01:26:03 判断技术潜力的好方法:Toy Example(玩具案例) 附录: RL(Reinforcement Learning):强化学习; policy:策略,强化学习语境下指模型完成任务的方式; exploration:探索,强化学习语境下指探索可能完成任务的新路径; exploitation:利用,强化学习语境下指利用已知信息,选择最优的动作,和 exploration 相对; reward model:奖励模型,是强化学习算法的一部分,用于评价某个动作的好坏; ground truth:真值,指训练强化学习模型时使用的标准答案; prosumer(professional consumer):专业用户,本期节目语境下指用 Agent 产品完成工作需求的用户; context length:大模型的上下文长度; browser-use:使 AI 能够像人类一样浏览、操作网页的开源工具; Monte-Carlo Tree Search:一种基于随机模拟的搜索算法,用于在决策过程中评估不同选择的潜在结果,常用于需要策略规划的情境中; API:应用程序编程接口,是一组允许不同软件系统之间通信、交换数据的规则; SDK:软件开发工具包,旨在帮助开发者为特定平台或系统构建应用程序。 剪辑制作:甜食 本期主播: 孙海宁(微信 @_HaydenSun) 程曼祺 小红书 @曼祺_火柴Q,即刻 @曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

94分钟
3k+
2天前

110: 与明势夏令聊Agent竞争:通用入口之战就要来,创业要做垂、做专

「与模型公司的主航道保持距离。」 2022 年初,夏令在 AI 热潮之前,投资了大模型创业公司 MiniMax 的天使轮。明势创始合伙人黄明明后来曾在暗涌组织的活动上,和 MiniMax 创始人闫俊杰一起回忆投资故事:在米哈游联创刘伟介绍下,明势第一次见了闫俊杰,那会儿其实大家都没太明白闫俊杰要做什么。“好在,夏令听懂了,回来后说,这个项目一定要投”。夏令也是文生图应用 LibLib.ai 和具身智能明星公司逐际动力的早期投资人。 这一期,我和夏令聊了 Agent 行业的竞争形势推演。 在他的认知里,Agent 横跨软硬件——除了 DeepResearch、Devin 这些主要在云端的Agent,以及接下来可能会进入白热化竞争的与手机结合的 Agent;和车结合的自动驾驶,和机器人结合的具身都是 Agent。它们各自处于不同的成熟阶段和竞争形势中。 夏令的观察和判断是,今年下半年开始,围绕入口级 Agent 的大战就会拉开。最为焦灼的战场会是以手机为终端的通用 Agent 产品竞争,主要玩家是掌握超级 App 或流量的大厂和自己能迭代模型的头部大模型公司。OpenAI、Google、Meta、字节、阿里、腾讯都不会放过这个机会,美团、小红书,乃至智能汽车领域的理想也都跃跃欲试。 而在早期投资视野里,大多数创业公司的机会可能在于垂直和专业的 Agent。更通用的 Agent 很可能会因处在模型公司主航道上而备受挑战。模型公司的主航道边界在哪儿?今年 2 月 Google 的一份白皮书有一个比较清晰的框架,我们在节目中有展开。 图注:Google Agents 白皮书中的能力框架图。 夏令已经投资了一些不同的垂直 Agent 商业模式,这也是中美差异所在——在中国,一些新公司不再用做工具的思路做 Agent,来赚订阅的钱,而是用 Agent 直接做服务,获取收入分成。因为中国客户更愿意为结果本身付费,而不是为效率付费。 至于近期被朱啸虎的言论推到风口浪尖的具身智能,夏令投资了这个行业,也从他的角度讲了风险:具身最大的危险,并不是朱啸虎提到的目前没有商业化的 PMF,不能去工厂和商店打工、搬砖,而是具身模型的技术还没有收敛,机器人大脑还没来到它的 GPT-3 的时刻。 本期嘉宾: 夏令,明势创投合伙人,邮箱:[email protected] 时间线跳转: 00:06 开场介绍 跨软硬件视角的 Agent & Google 白皮书的里的技术框架 04:57 OpenAI 提出 5 级分类,推理是 L2、Agent 是 L3,DeepSeek 爆火是 L2 对 L1 的降维打击,所有人开始提前想 L3 11:14 Agent 技术框架:模型+编排层(目标理解、推理、记忆)+工具使用 14:23 OpenAI 全局记忆功能上线,新的 wow 时刻 16:19 更强推理能力,会削减 workflow 优势 19:52 MCP 成为工具使用的主流生态,更利好模型公司而非应用公司 通用入口大战,下半年就拉开序幕 22:57 已经逃离九宫格的美团等公司,不想再回到“九宫格” 25:21 美团、滴滴最初可以拒绝接入其它公司的 Agent,但这也许会给身后的第二名创造机会 27:25 云端→手机→新终端,通用 Agent 的入口数量递减;Agent 也会冲击互联网传统的广告商业模式 32:22 大厂布局眼镜端 Agent,Meta 牌面最好 36:07 B(字节)AT 三家,生态相对封闭,互通可能性是什么?一个待验证的预言:下半年就会看到巨头间的入口 Agent 竞争 模型大厂 vs 应用创业,边界在哪儿? 37:45 创业要和模型主航道保持距离 43:20 GPT 4o 对泛 C 文生图应用冲击大,却能帮 to 专业人群的文生图应用打 Adobe 50:44 模型大厂和 Agent 应用的边界在于前者都有泛 C 野心,后者更擅长服务精准人群,做“最后一公里” 53:24 离模型主航道太近的通用 Agent,壁垒不能在技术本身 垂直 Agent 创业机会 54:52 Agent 概念火后,一批已存在的 RPA 公司先受益 57:31 新公司机会:重塑流程(如 Shein)、规模化原本不能规模化的行业、找到低垂的果实(如满帮) 01:02:04 实例:用 AI 帮银行起诉坏账,1 个月发起超 1 万起案件,分收入提成 01:08:30 为什么不是律所+AI,而是原生 AI 公司来做这件事? 01:12:29 这类项目的团队画像:懂行业+懂 AI 01:15:10 Kill time 的内容型 Agent,内核不是解决任务,而是有一定自主性;在当前记忆受限的情况下,还提供不了长期关系 01:17:18 短期机会是做新型内容平台 01:22:12 远期想象:工具 Agent 和陪伴 Agent 的融合 01:24:35 未来 3 年再不到“GPT-3 时刻”可能是个大泡沫,但这是早期投资可以容忍的风险 01:31:42 结尾分享,那些创业公司和开源历史的启发——《九胜一败》、《安卓传奇》、《与开源同行》 01:37:39 本期连点成线 相关链接: Google Agents 白皮书原文 晚点聊107:与真格戴雨森长聊 Agent:各行业都会遭遇“李世石时刻”,Attention is not all you need 剪辑制作:Nick 本期主播:小红书 @曼祺_火柴Q,即刻 @曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

100分钟
10k+
1周前

109: 数字生命卡兹克如何用 AI:把任何重复3遍的事AI化

“AI 殿堂的门童”更先看到了什么?今天的嘉宾,是不少关注 AI 的听友都很熟悉的一位朋友——“数字生命卡兹克”。 这期也是 《晚点聊》想做的一个系列 「I,AI」的第一期,会探讨更多 AI 和“人”,和“我”,和“你”,也就是 AI 和我们的日常工作与生活的内容。 从 2023 年 2 月开始,卡兹克在“数字生命卡兹克”这个公众号上发布了第一篇 AI 文章,此后吸引了大量想了解 AI 和把 AI 用起来的受众。之后卡兹克在 2024 年 3 月开始全职运营这个账号,也陆续做起了视频,见同名视频号。 我本来想和卡兹克聊他广泛使用和测评各种 AI 产品的感受,以及他对那些想更好使用 AI 的人的建议。不过谈话在流动中触及了更多话题。 这期前半部分,卡兹克分享了自己在 2023 年用 AI 做产品的经历。其实 24 年全职做数字生命卡兹克之前,他在一家做公募基金数据分析平台的创业公司担任设计总监。在 22 年底 ChatGPT 刚上线后,他们就开始在公司内全面使用 AI,甚至在 23 年 9 月第二批拿到了算法备案,也是金融领域的第一个。但当他们试图用 AI 赋能业务,做一款想卖给基金公司和券商等机构的 toB 产品后,进展却并不顺利。 24年3月,公司收束和调整业务后,卡兹克离开,变身“肝神卡兹克”。我们从卡兹克怎么用 AI 来改造自己的工作流聊了现在各方向的 AI 产品。这对同样是做内容的我有很多启发。 卡兹克能精准、快速挖掘选题,和高频产出,当然和他“肝”有关,但也和他利用 AI 做了大量自动化有关,比如他们会每天搜集全网 AI 资讯,然后用 AI 模型帮助打分、筛选,挑出最重要的 10 条发到 30 多个社群里,作为早报。他们也会用 AI 分析社群里的讨论焦点,帮助产生选题。 一个特别有意思的案例是,前不久,卡兹克做了一次线下活动,有 2000 多人报名,但只能容纳 200 人。要筛选报名者和分组,在以往组织线下活动时是浩大工程,而这次 AI 帮了大忙。 卡兹克说,他现在想做“AI 殿堂的门童”:让更多人看到 AI 原来能做这么多有意思的事,能帮我们解决问题。 本期结尾最,我们一起回顾、对比了 2023 年和 2025 年卡兹克分别发的两次 AI 产品推荐: 图:2023 年,卡兹克写的的 AI 工具推荐。 2025 年,卡兹克写的 AI 工具盘点,见文章:2025最好用的AI产品大全推荐,看这一篇就够了。 这篇开头没有全览图,我自己用 Manus 做了一个简单的交互网页: https://hhlxioqr.manus.space/mindmap 产品名和公司名是我自己输入的,上线时间是请 Manus 自己查找的,可以看到并不太准确,比如 TripoAI 应该是 23 年 12 月上线的。 *本期头图:卡兹克 2023 年用 Midjourney 制作的 AI《流浪地球3》预告片截图。 本期嘉宾: 数字生命卡兹克,公众后 ID:Rockhazix 时间线跳转: 00:23 开场总结 - 交互设计师-用 AI 做金融分析产品-成为“数字生命” 02:25 交互设计师到首次参与创业 10:23 全公司开始用 AI(代码翻译、UI 设计)→用 AI 做基金分析产品→拿到备案,但客户推广不顺 25:23 兼职做 AI 内容的两次出圈大火:AI 流浪地球3预告片,开始协助郭帆导演在电影制作流程中用 AI;发布 Pika 文章第二天,一天做了 13 个券商线上路演 32:42 AI 内容变难做,一是用户阈值变高,二是一些新进展已离普通人较远(数学、AI for Science 等);DeepSeek 出圈不是因为数学、逻辑,中国人的“ChatGPT”时刻 41:32 想做 “AI 殿堂的门童” 56:26 最近被喷最多是因为 Manus,“我真的没收钱” - 卡兹克怎么用 AI:模型找选题、做分析,DeepResearch 真香! 01:01:09 别人问我怎么用 AI,我先问:你觉得什么东西浪费时间、不相干? 01:03:49 AI 总结社群焦点,用字节 Trae 写数据分析工具,ChatGPT 干“大活”靠谱,DeepResearch 真香! 01:12:09 AI帮助全网筛选提:早 8 早报,晚 8 “内参”,深夜 12 点再汇总外网新动态——干跑两个实习生后搭建的 AI 提效流程 01:18:55 多模态 AI 使用:做海报和设计,但视频内容目前想保持“人味” 01:24:36 用 AI 的坑:错估 AI 能力边界,但不要受挫就放弃;DeepResearch 写小说能力惊人,但现在秒不了乔治·马丁;第一部分账模式的 AI 短剧《兴安岭诡事》已出现 01:31:31 各 Agent 使用体验,大部分偏玩具,因为多步任务中错误会叠加,规划、执行和整合能力最重要 01:39:00 23 年用 Coze 和 Dify 多,但这部分需求后来被 Cursor、Trae 满足 01:41:15 一个用飞书多维表格跑工作流的例子;最近办线下活动,DeepResearch 11 分钟干了去年 11 个人一起做的活:筛选报名者和现场分组 01:51:49 今夕对比,2023 年 3 月的 AI 产品推荐 VS 2025 年 2 月 AI 产品推荐;Jasper 怎么了?音频、视频全部大洗牌,豆包、元宝的崛起,字节系产品多类开花 02:05:50 卡兹克的“焦虑”:AI 会不会正在精英化?AI 还没有出现手机之后的新终端 02:18:36 AI 对更多普通人的意义,群友们的故事 02:26:06 本期「连点成线」 相关链接: 你要的AI工具大全都在这里了!(上) 你要的AI工具大全都在这里了!(下) 2025最好用的AI产品大全推荐,看这一篇就够了。 我用AI做了一部《流浪地球3》的预告片... 贤者之石(卡兹克 DeepResearch 撰写的 3 万字小说) 剪辑制作:甜食 本期主播:小红书 @曼祺_火柴Q,即刻 @曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

149分钟
24k+
3周前

108: 与马毅聊智能史:“DNA是最早的大模型”,智能的本质是减熵

香港大学计算与数据科学学院院长,看 35 亿年智能史。欲知未来,先知过去。 这期是《晚点聊》的一个新系列 「LongContext」“长语境”的第 1 期。 封面:马毅上周五(3 月 14 日)在北大做分享(刚好是 π 日) 类似于现在的大模型需要 LongContext,我们去学习智能,也需要一个更全面的历史语境,让我们能在新东西不断涌现的此刻,找到一个更稳定的坐标。 在这个系列的开端,我邀请了香港大学计算与数据科学学院院长,马毅教授,来与我们聊智能和机器智能的历史。 马毅本科毕业于清华大学,2000 年在加州伯克利大学获得博士学位,先后任职于伊利诺伊大学香槟分校(UIUC)、微软亚研院、上海科技大学、伯克利大学和香港大学,是人工智能和计算机视觉领域的全球知名学者。 最近 5 年,马毅自己关心的课题之一,就是智能的历史。为了在港大推动面向所有学科本科生的 AI 通识教育,他也在撰写教材、设计课程,对智能的发展做了更全面和深入浅出的整理。 马毅对智能有一些“少数派”的理解,比如本系列的名称「LongContext」——当作为一个技术概念时,马老师认为与其一味追逐预训练模式下的更长 LongContext,更好的方法是找到一种机制,能让智能系统有闭环的、长久的、不会遗忘的记忆。这些理解本身与他对智能史的梳理和认知有关。 智能是如何在地球上诞生的?马毅认为,生命就是智能的载体:从 DNA 出现,到神经系统诞生和寒武纪物种大爆发,再到人类的语言与数学的诞生,智能有不同的表现形式,但不变的是,智能都是在学习外部世界的知识与规律,从而进行预测,使知识可以为我所用。智能是在寻找规律并利用规律,是一个对抗宇宙熵增的过程。 从智能的历史,我们进一步聊了机器智能的历史:大部分人会把 1956 年的达特茅斯会议视为人工智能的开端,而马毅认为,对机器智能的研究,要追溯到 1940 年代的维纳的控制论、香农的信息论等更早的源头。从那时到现在的 80 多年里,机器智能发展几经起伏。马毅也分享了自己亲历的部分变化:比如他刚博士毕业时,找不到对口方向的教职;他现在被引用最多的成果,一度没有任何会议接受。 马毅也分享了一个研究者的技术品味如何形成?“品味”不仅是一种认知,也是认知被挑战时能继续坚持的自信。马毅的 taste,使他进入了一个目前在 AI 工业界眼中并不那么主流的方向:白盒大模型,和能实现“闭环、反馈、纠错”的机器智能。这两个方向在我们去年与马老师的访谈中有更详细的展开,具体内容可见《晚点聊》第 71 期节目。为加速这些方向的探索,马毅也创立了一家公司“忆生科技”。 本期涉及的人物、理论、技术成果、术语,见 Shownotes 文末附录。 本期嘉宾: 马毅,香港大学计算与数据科学学院院长 时间线: 00:13 开场总结 & LongContext 系列说明 智能的历史 04:58 DNA、神经系统、语言、数学,智能有四种机制;知识本身不是智能,而是智能活动的结果 19:06 大模型在四种机制中的阶段——类似靠 DNA 物竞天择的强化学习 24:53 智能在宇宙中诞生,也许是偶然中的必然;宇宙熵增(越来越混乱、随机),终有一天会无规律可学 机器智能的历史 29:02 AI 的起点不是达特茅斯会议 39:55 80 年机器智能史中的“闪耀时刻” 46:57 神经网络的起伏,本质是机制不明确,一些成果靠经验性试错 56:51 Open o1 和 DeepSeek-R1,它们真的在做“推理”吗? 01:08:06 “DeepSeek”们的出现,是一个 where and when 的问题,不是 if or not 的问题 技术 taste 的形成 01:11:21 探索未知的勇气和特立独行+严谨的学术培养 01:14:24 “做数学家,第一条是把自己训练成世界上最难说服的人” 01:18:53 在伯克利读博士时的氛围:自由跨组,学生互助 01:24:16 品味被挑战的时刻:现在被引用最多的成果,一度没有任何会议接收 01:27:58 没有接受系统教育的企业家、从业者,如何形成技术 taste? 港大 AI 通识教育实践 01:35:12 减少一门英语课,所有本科生增加一门 AI literacy:教授历史、技术概念、伦理;重要的是思维训练,而不是结论本身 01:45:50 机器降临派 or 人类堡垒派?——智能共存 白盒与闭环反馈纠错 01:52:15 闭环系统才能适应开放世界,具身是应用场景 01:54:05 VLA 端到端不一定是具身智能正确的解法,至少不是最高效的解法;人脑其实是一个并行结构 01:59:50 公司的意义,与学校要做的事形成互补 02:11:28 “我从不说 AGI”,不要笼统地理解智能 02:13:05 “焦虑就是来自不懂”,当 AI 的黑盒被利用,“迷信是这么产生的,权力也是这么产生的” 02:15:09 本期「连点成线」 相关链接: 晚点聊71:“如果相信只靠 Scailng Laws 就能实现 AGI,你该改行了”,与香港大学马毅聊智能 对话香港大学马毅:“如果相信只靠 Scaling Laws 就能实现 AGI,你该改行了” 晚点聊106:与真格戴雨森长聊Agent:各行各业都会遭遇“李世石时刻”,Attention is not all you need 晚点聊103:用 Attention 串起大模型优化史,详解DeepSeek、Kimi最新注意力机制改进 晚点聊101:与王小川聊AIX医疗:通向“生命科学的数学原理” 附录: 诺伯特·维纳:控制论创始人,奠定AI与自动化理论基础。 图灵:计算机科学之父,提出图灵机与图灵测试,奠定AI理论基础。 冯·诺依曼架构:计算机体系结构基础,由冯·诺依曼于1945年提出,沿用至今。 达特茅斯会议:1956 年由麦卡锡、明斯基等人发起,首次定义“人工智能”。 Perceptron:感知机,Frank Rosenblatt于1957年提出的早期神经网络模型。 Yann Lecun:卷积神经网络先驱,2018年图灵奖得主,Meta首席AI科学家。 Geoffrey Hinton:深度学习先驱,反向传播算法(Back Propagation)联合提出者,2018年图灵奖得主。 李飞飞:斯坦福大学教授,ImageNet数据集发起人,推动计算机视觉发展。 卷积神经网络(CNN):Yann LeCun于1980年代末提出的深度学习模型,专用于图像识别。 AlexNet:2012年ImageNet竞赛冠军模型,由Hinton团队提出,推动深度学习复兴。 ResNet:微软2015年提出的残差网络,解决深层网络梯度消失问题。 VGG:牛津大学2014年提出的深度卷积网络,以结构简单高效著称。 ImageNet:李飞飞团队2009年发起的图像数据集,推动AI算法发展。 李泽湘:机器人技术专家,马毅在伯克利博士期间的师兄;他们的导师是 Shankar Sastry。 陶哲轩:数学家,研究涵盖机器学习理论,推动AI与数学交叉领域发展。 SFT Memorizes, RL Generalizes:(港大、UC Berkely、Google DeepMind、NYU 2025 年合作发表的论文),是本期中讨论提升模型推理时,SFT(监督微调)和 RL(强化学习)的相关但不同角色的那篇论文。 监督微调(Supervised Fine Tuning):基于标注数据调整预训练模型,适配特定任务。 强化学习(Reinforcement Learning):通过奖励机制优化策略,适用于动态决策任务。 伯克利 BAIR:加州大学伯克利分校人工智能研究所,成立于2016年,聚焦机器人、强化学习等前沿领域。 VLA:Vision-Language-Action Model 视觉-语言-动作模型,Google DeepMind 2023 年提出的一种让智能体在物理或数字环境中执行复杂任务的模型,应用于机器人、自动驾驶等领域 播客中提到的两位遭遇学生生涯挫折的诺贝尔奖得住:一位是 2024 年生理学或医学奖得主 Victor Ambros,曾未能获得哈佛大学终身教职;一位是 2023 年生理学或医学奖得主 Katalin Karikó,曾被宾夕法尼亚大学降级降薪。 剪辑制作:Nick 本期主播:小红书 @曼祺_火柴Q,即刻 @曼祺_火柴Q ☆《晚点聊 LateTalk》建立「 播客听友群」啦!☆ 欢迎关注科技、商业大公司动态和创业创新的小伙伴进群交流,第一时间收听新节目。 这里有更多互动,更多话题讨论。欢迎贡献选题 & 推荐嘉宾。 请先添加「晚点」小助手的微信号,备注:“晚点聊”,我们邀请您入群。 关注公众号《晚点 LatePost》和《晚点对话》,阅读更多商业、科技文章:

138分钟
19k+
1个月前
晚点聊 LateTalk的评价...

空空如也

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧