Notion 如今已是估值超 100 亿美元、年收入(ARR)超 5 亿美元的超级独角兽,但在 2015 年,它曾濒临倒闭。当时的 Notion 现金流耗尽,产品建立在随时可能崩溃的单一数据库上,团队面临解散的危机。 本期节目带我们走进 Notion 的幕后,对话联合创始人 Simon Last 和 COO Akshay Kothari。他们揭秘了那段最黑暗的时光——创始人如何破釜沉舟搬到日本京都,在完全不懂语言的环境下通过 18 小时的每日编程重建了产品。 更重要的是,本期节目深入探讨了 Notion 3.0 的核心战略:全面拥抱 AI 代理(Agents)。Notion 内部目前拥有 560 个活跃的自定义 Agent,这意味着每两个员工就配备了一个 AI 助手。他们如何看待未来的工作形态?为什么说未来的每个人都将成为“AI 代理的管理者”?这是一次关于创业韧性、产品哲学与未来工作方式的深度探秘。 时点内容 | Key Topics * 濒死体验与京都重生: 回顾 2015 年 Notion 耗尽资金的危机时刻。创始人 Ivan 和 Simon 选择搬到京都,在与世隔绝的环境中重写代码,将“品味”(Taste)作为产品的核心护城河。 * 从 100 万到 5 亿 ARR 的扩张: COO Akshay 分享从 8 人团队增长到 1000 人大厂的挑战,以及在 TikTok 爆火导致服务器险些崩溃的惊险瞬间。 * COO 的自我毁灭哲学: Akshay 认为 COO 的工作就是不断“把自己炒鱿鱼”——先身兼数职(销售、财务、法务),然后招人替代自己,最终专注于最核心的战略。 * AI 时代的 Notion 3.0: Notion 不再仅仅是文档或数据库,而是致力于成为“知识工作者的 AI 基础设施”。 * 内部数据大公开: Notion 内部目前有 560 个活跃的自定义 AI Agent,相当于每两名员工就有一个 Agent 在后台处理重复性工作。 * 未来工作形态预测: 人类的角色将从“执行者”转变为“协调者”。未来的工作不是自己动手做所有事,而是管理和审计一群日益复杂的 AI 智能体群(Swarms of Agents)。 * “柔软”的软件哲学: 即使在 AI 时代,Notion 依然坚持软件应该是“可塑的”(Malleable)和“柔软的”,让用户像搭积木一样自定义自己的工具,而不是被僵化的 SaaS 流程所束缚。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=l8xdRcN81x8 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。 附录: Notion 的创始人 Ivan Zhao 的精彩文章:《钢铁、蒸汽机与无限大脑》 越来越清晰的感觉到,我们正处于 AI 革命的早期阶段,对于未来谁也不知道会怎么样,所以都喜欢从历史中、去工业革命、互联网革命中寻找规律,以期望能对未来有所启发。 相对来说,这篇文章虽然也是尝试从钢铁和蒸汽机的历史里,寻找 AI 时代的答案,还是挺有深度。 【1】第一个观点是:我们正在看着后视镜开车 每一代新技术刚出来时,人们总是习惯用旧的方式去理解它。这就是所谓的“看着后视镜驶向未来”。 想想看,早期的电话,大家把它当成“会说话的电报";早期的电影,其实就是把摄像机架在观众席拍舞台剧。 现在的 AI 也是一样。我们看到的 AI 大多长什么样?一个聊天框。为什么?因为它在模仿 Google 搜索框。 我们正处在这个尴尬的过渡期。就像当年大家还不懂电影剪辑语言一样,我们现在还在试图把 AI 硬塞进旧的工作模式里。 【2】个人层面:从骑自行车到开汽车 乔布斯当年有个著名的比喻,说电脑是“大脑的自行车"。意思是它能让人跑得更快,但你还得自己蹬。 对于现在的程序员来说,AI 已经不是自行车了,而是汽车。你不用蹬了,你只需要握好方向盘。 Ivan 讲了他的联合创始人 Simon 的故事。 Simon 以前是传说中的“10 倍工程师",但现在几乎不自己写代码了。路过他工位,你会看到他像指挥官一样同时调度三四个 AI 编程智能体。这些 AI 不只打字快,还能思考。他在吃饭或睡前把任务排好队,AI 就在后台疯狂干活。 他从“写代码的人",变成了“管理无限大脑的人"。 【3】为什么只有程序员先享受到了从骑自行车到开汽车的待遇? 但问题来了,为什么只有程序员先享受到了这种待遇?普通的文案、运营、产品经理为什么还在“蹬自行车"? 两个原因: 第一,上下文太碎了。程序员的代码都在仓库里,环境单纯。 但普通人的工作散落在 Slack、飞书、文档、甚至脑子里。AI 不知道前因后果,没法干活。 第二,没法验证。代码写错了会报错,好坏一目了然。 但一个活动策划案好不好?一份周报写得对不对?这很难量化。 所以,想要从自行车升级到汽车,我们得先帮 AI 把上下文补齐,并且找到验证工作成果的方法。 【4】组织层面:不仅是换引擎,还要换地基 个人层面说完,Ivan 把视角拉到组织层面,用了“钢铁"和“蒸汽机"两个比喻,来解释 AI 会如何重塑公司。 第一个是钢铁。 在钢铁普及之前,房子盖不高。因为用砖头和木头,盖到六七层,底下的墙就被压垮了。这就像现在的公司,人数一过几百,沟通成本就爆炸了,效率急剧下降。人与人之间的沟通,就是那个脆弱的“砖墙"。 AI 就是组织的“钢铁"。它能支撑起巨大的信息流,让决策不需要层层汇报就能完成。未来的公司,可能几千人规模还能像创业团队一样敏捷,因为 AI 撑住了沟通的架构。 第二个是蒸汽机。 最早的工厂都建在河边,因为要用水车做动力。蒸汽机刚发明时,很多老板只是把水车拆了,换成蒸汽机,但工厂还在河边,流程也没变。效率提升非常有限。 直到后来,老板们意识到: “等一下,既然不用水了,我为什么不把工厂搬到离港口更近的地方?" 工厂可以建在离工人、港口、原材料更近的地方。整个车间可以围绕蒸汽机重新设计。后来电力普及,工厂进一步把集中的动力轴拆散,给每台机器配上独立的电机。生产力才真正爆发,第二次工业革命才真正起飞。 我们现在还在“换水车"阶段。AI 聊天机器人挂在现有工具上,工作流程还是为人设计的。我们还没认真想过:如果旧的约束消失了,组织应该长什么样? 真正的变革,是当管理者意识到可以彻底重组工作流,让那些“不睡觉的大脑"去处理所有重复性工作的时候。 Notion 自己就在做实验。他们 1000 人的公司里,活跃着 700 多个 AI Agent。这些 AI 负责写会议纪要、回答内部咨询、处理 IT 请求、写周报。这不仅仅是省时间,这是在重塑组织形态。 回看你的工作,如果只是用 ChatGPT 润色邮件,那你就是在把水车换成蒸汽机,工厂还在河边。试着想一想:如果我有无限个免费实习生(AI),工作流程应该怎么彻底重设计? 【5】经济层面:从佛罗伦萨到东京 最后 Ivan 把视角再拉高一层:钢铁和蒸汽不只改变了建筑和工厂,还改变了城市。 几百年前,城市是人类尺度的。佛罗伦萨走个四十分钟就能穿城而过,生活节奏由人能走多远、声音能传多响决定。然后钢铁框架让摩天楼成为可能,蒸汽铁路把市中心和腹地连起来,电梯、地铁、高速公路跟上。城市在规模和密度上爆发了。东京、重庆、达拉斯,这些不是“更大版本的佛罗伦萨",而是完全不同的生存方式——更混乱、更匿名、更难辨认方向,但也提供了更多机会和自由。 Ivan 认为知识经济正站在同样的转折点上。今天的知识工作占了美国 GDP 的近一半,但大部分还是人类尺度的运作:几十人的团队,会议和邮件定义的节奏,超过几百人就开始失灵的组织。我们用石头和木头建造了很多佛罗伦萨。 当 AI 智能体大规模上线,我们会开始建造东京。成千上万的智能体和人类协作,工作流程全天候运转不等人醒来,决策在恰到好处的人类参与下被综合。周会、季度规划、年度考核的节奏可能不再合理,新的节奏会涌现。 我们将失去一些“小而美"的清晰感,但会换来前所未有的规模和速度。 Ivan 提到一个历史趣事:1865 年英国有个《红旗法案》,规定汽车上路时必须有人举着红旗走在前面开路。听起来荒谬,但我们现在要求 AI 每做一步都要人确认,是不是也像“举红旗"?真正的未来,是人站在更高处监管,而不是挡在路中间。 也许我们应该停止从后视镜看世界,开始想象新的可能。卡内基看着钢铁,看到了城市天际线。兰开夏郡的工厂主看着蒸汽机,看到了不再依赖河流的车间。 我们还在问 AI 怎么当好“副驾驶"。也许该问的是:当无限心智成为基础设施,知识工作会变成什么样? 这个问题,Ivan 没给答案。但他给了一个思考的框架。对于正在这场变革中的人来说,框架可能比答案更有用。
本期节目,Lenny 独家对话 OpenAI Codex 的产品负责人 Alexander Embiricos。在 GPT-5 发布后的几个月里,OpenAI 的编码智能体 Codex 经历了爆发式增长。Alexander 分享了 Codex 如何从一个模型代号重生为 OpenAI 最核心的“软件工程师队友”。 这不仅是一次产品访谈,更是对 2026 年 AI 发展趋势的深度预演。你将听到 OpenAI 内部令人咋舌的开发速度——仅用 2-3 名工程师和 18 天就构建了霸榜 App Store 的 Sora Android 应用。Alexander 还深入探讨了为什么 AI 发展的当前瓶颈不再是算力,而是人类的“打字速度”和“审查速度”;以及 OpenAI 正在构建的神秘浏览器项目 Atlas。无论你是开发者、产品经理,还是关注 AGI 进程的观察者,这期内容都将带你提前看到 AI 协作的未来形态。 时点内容 | Key Topics * Codex 的重生: 为什么 OpenAI 决定重启“Codex”品牌?它不再仅仅是 Copilot 背后的模型,而是一个包含 VS Code 插件和 CLI 工具的完整编码智能体。 * Sora App 的疯狂开发: 揭秘 Sora Android 应用的开发内幕——利用 Codex 进行代码移植和生成,仅用 18 天完成内部版,28 天正式上线并登顶 App Store。 * Atlas 浏览器: OpenAI 正在构建名为 Atlas 的浏览器?Alexander 解释了为何要进入浏览器领域,以及“上下文感知”如何让 AI 在网页工作中更主动地提供帮助。 * AI 的新瓶颈: 一个反直觉的观点:目前限制 AGI 发展的最大因素是人类的打字速度和多任务处理能力(主要是为了审查 AI 的工作)。 * 从助手到队友: 未来的 Codex 不仅仅是写代码,还能像真正的实习生一样,自我修复训练运行中的错误(On-call),甚至主动在 Slack 上回答数据波动的问题。 * 压缩人才栈(Compressing the Talent Stack): 设计师通过“Vibe Coding”直接生成动画代码,产品经理直接修改文案字符串——AI 如何模糊了传统职能的边界? * AGI 时间表与 2026 预测: Alexander 预测 2026 年将是 Agent 真正爆发的一年,并给出了他对 AI 发展“曲棍球棒”曲线的看法。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=z1ISq9Ty4Cg 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在 AI 辅助编程普及的今天,许多公司虽然有 90% 的工程师在使用 Copilot,但依然保留着传统的开发流程。本期节目,我们邀请到媒体兼软件公司 Every 的 CEO Dan Shipper,他分享了一个激进的观点:90% 的 AI 采用率和 100% 的 AI 采用率之间存在着 10 倍的效率差距。 Dan 详细展示了 Every 作为一个仅有 15 人的团队,如何在不融资的情况下,仅靠单人开发者就构建并维护了 Kora、Monologue 等 4 个复杂的商业化软件产品。这背后的秘密在于他们彻底重构了工程流程,提出了**“复利工程”(Compounding Engineering)**的新范式——让 AI 编写 99% 的代码,并将每一次开发经验都固化为全公司共享的资产。你将看到 AI 如何让新员工入职第一天就提交代码,如何让不同技术栈的团队无缝协作,甚至让 CEO 利用碎片时间重回代码一线。 时点内容 | Key Topics * 100% AI 采用率的质变: 为什么说只要有 10% 的流程停留在旧时代,就会拖累整个组织的效能?从“辅助编码”到“全权委托”的思维转变。 * Every 的疯狂实验: 15 人团队运营 6 个业务单元和 4 个软件产品,且每个 App 仅由一名开发者构建,99% 代码由 AI 生成。 * 复利工程(Compounding Engineering): 只有 AI 时代才可能实现的工程新哲学。 目标: 让开发的每一个功能都使下一个功能的开发变得更容易。 四步循环: 计划(Plan)、委托(Delegate)、评估(Assess)、固化(Codify)。 核心动作 Codify: 将隐性知识(Tacit Knowledge)转化为全公司共享的 Prompts 和 Agent 配置文件。 * 组织架构的二阶效应(Second-order Effects): 隐性代码共享: 不需要复杂的库封装,AI 可以直接读取同事的代码并为你在新栈中复现逻辑。 新员工即插即用: 所有的环境配置和规范都已写入 Agent,新员工第一天即可高效产出。 跨项目贡献(Internal Open Source): 任何开发者甚至管理者都能轻松修复其他产品的 Bug,因为理解代码的成本几乎为零。 技术栈自由: 不再需要强制统一语言,AI 让 Python 和 Node.js 开发者之间的隔阂消失。 管理者的回归: 利用 AI 这种“注意力碎片化”工具,CEO 也能在会议间隙修复 Bug 或提交功能,重获对产品的掌控感。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=MGzymaYBiss 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
搜索栏正在消亡,消费者的购物习惯正经历一场从“搜索与浏览”到“提问与购买”的根本性重塑。当 ChatGPT 为 Zara 和 H&M 带来的流量占比甚至超过传统广告时,我们正站在一个价值 3850 亿美元的“代理商务(Agentic Commerce)”市场的入口。 本期节目揭示了这场 AI 购物革命背后的底层逻辑:流量套利(Arbitrage)已从“注意力”转向了“信任”。AI 正逐渐成为消费者与产品之间最受信任的中间人。我们不仅会分析为什么大企业虽然看到了趋势却难以转身,更会为你提供三个具体可执行的商业模式,助你在 2026 年利用 AI 工具以极低的成本和极快的速度建立竞争优势,无论是打造 AI 原生品牌、构建垂直领域的购物代理,还是成为新兴的 GEO(生成式引擎优化)专家。 时点内容 | Key Topics * 搜索栏的消亡与信任套利的崛起: 消费者不再搜索关键词,而是向 AI 寻求直接的解决方案。AI 的推荐比付费广告更具公信力,标志着商业竞争的核心从争夺注意力转向争夺 AI 的信任。 * 商业模式一:AI 原生电商品牌(AI First E-commerce Brand): 极速验证: 利用 Nano Banana 2 等图像模型在一个下午生成并测试数百个产品概念,无需预先制造。 内容工厂: 全自动生成产品图、视频广告和社交媒体内容,无需摄影师和工作室。 低成本运营: 利用现成的 AI 客服代理实现 24/7 服务,以极低的日常开销对抗传统巨头。 * 商业模式二:垂直领域的 AI 购物助手(Niche AI Shopping Assistant): 避开通用大模型: 不要试图做一个“万能导购”,通用 AI 什么都懂但什么都不精。 深耕价值型需求: 针对道德供应链、纯素食主义者等特定群体,构建基于规则和深层数据的专用代理(如使用 n8n 等低代码工具),提供通用模型无法给予的深度验证和信任。 变现路径: 通过订阅费或高额佣金实现盈利,是一次构建、无限服务的“产品化服务”。 * 商业模式三:生成式引擎优化服务(GEO - Generative Engine Optimization): 新时代的 SEO: 帮助品牌优化其在线资产,使其更容易被 AI 模型理解和推荐。 蓝海市场: 目前全球精通此道的专家极少。工作内容包括重写产品描述、添加结构化数据,确保品牌在 ChatGPT 等平台的回答中占据“首推”位置。 持续性收入: 这不是一次性的修复,而是需要长期维护的月费制服务。 * 数字地产的重要性: 在 AI 时代,拥有一个清晰、可信的域名(如 .store)是向 AI 和用户传递“我是专业卖家”这一信号的关键,其带来的信任感直接转化为转化率。 * 未来的机会所在: 真正的机会不在于开发大模型,而在于成为“系统架构师”——将强大的 AI 工具应用于现实世界的细分问题,从执行者转变为品味把控者和系统设计者。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=Lw5Gy881PJ8 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在 AI 领域,Chip Huyen 是少有的既具备顶尖学术背景(斯坦福讲师、Netflix/NVIDIA 研究员),又能深入企业一线解决实际问题的实战派专家。她撰写的《AI Engineering》不仅是畅销书,更是无数开发者的案头指南。 本期节目,Lenny 与 Chip 进行了一场硬核而深度的对话,直击 AI 应用开发的痛点。Chip 犀利地指出,大多数公司在 AI 转型中陷入了误区:过度迷恋最新的模型和新闻,却忽视了数据质量和用户需求这些“枯燥”但决定成败的基础工作。 您将了解到: * 戳破泡沫: 为什么 Chip 认为“紧跟 AI 新闻”往往是浪费时间?她那张刷屏的“认知偏差图”背后,揭示了构建 AI 产品时哪些工作才是真正的高杠杆。 * 技术祛魅: 用最通俗的语言拆解预训练(Pre-training)、后训练(Post-training)、微调(Fine-tuning)和 RLHF 的本质区别。 * RAG 实战心法: 为什么在检索增强生成(RAG)中,数据准备(Data Prep)远比选择哪个向量数据库重要? * 工程师的未来: AI 会取代初级工程师还是让资深工程师更强大?Chip 分享了关于“系统思维”(System Thinking)为何是未来核心竞争力的独到见解。 * 跨界思考: 从撰写技术书籍到创作虚构小说,Chip 如何通过跨界写作来提升对用户心理的感知力? 无论你是正在构建 AI 应用的工程师、产品经理,还是关注技术趋势的决策者,这期节目都能帮你拨开迷雾,找到 AI 工程化的正确路径。 时点内容 | Key Topics * AI 开发的认知偏差: 深入解读那张病毒式传播的图表——人们以为重要的是最新的 Agent 框架和模型对比,但实际上真正重要的是与用户交谈、构建可靠的平台和准备更好的数据。 * 预训练 vs. 后训练: 形象地解释预训练就像学习语言统计规律,而后训练(微调/RLHF)则是通过强化学习让模型掌握特定任务或领域知识。 * RAG(检索增强生成)的关键: 许多团队过度纠结于数据库选型,却忽略了数据分块(Chunking)、元数据管理和文档重写等“数据准备”工作,而这才是提升检索质量的根本。 * 评估(Evals)的艺术: 为什么在大规模应用中必须要有严格的评估体系,但在产品早期“凭感觉”(Vibes)可能就足够了?如何设计有效的评估指标? * AI 对生产力的真实影响: 分享了一个有趣的实验——将工程师分为高中低绩效三组,发现 AI 工具对高绩效工程师的提升最大,因为他们更具备解决问题的能力。 * 未来的核心技能:系统思维: 随着 AI 接管越来越多的代码编写工作,计算机科学教育将从“教你写代码”转向“教你设计系统”和解决问题。 * 组织架构的变革: AI 正在打破产品、工程和设计之间的界限,未来的团队将更加融合,甚至出现“全栈构建者”。 * 个人哲学与写作: Chip 分享了她的人生格言“Nothing really matters”(虚无主义带来的自由感),以及通过写小说来训练“预测读者反应”的能力,这对做产品同样适用。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=qbvY0dQgSJ4 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在大多数企业还在争论 AI 是否过度炒作时,Block(原 Square)已经通过内部自研的 AI Agent "Goose" 实现了惊人的效率提升。本期节目,我们邀请到了 Block 的首席技术官 Dhanji R. Prasanna,深度解析这家金融科技巨头如何转型为 AI 原生企业。 Dhanji 分享了 Block 如何通过组织架构重组(从 GM 结构转为职能结构)来打破部门壁垒,为 AI 的全面落地铺平道路。最令人兴奋的是,他详细介绍了基于开源协议 MCP 构建的 Goose——这不仅仅是一个聊天机器人,更是一个能操作数据库、编写代码、甚至自动优化日程的智能体。目前,Block 的 AI 前沿团队每周能节省 8-10 小时的工作时间。 此外,Dhanji 还分享了他从 Google Wave、Google+ 到 Cash App 的职业生涯中汲取的宝贵教训,探讨了为什么“代码质量”往往与产品成功无关,以及为何初级员工和非技术人员反而是 AI 浪潮的最大受益者。无论你是正在探索企业 AI 落地的管理者,还是对 Agentic AI 感兴趣的开发者,这期节目都将为你提供一份来自一线的实战蓝图。 时点内容 | Key Topics * Block 的 AI 宣言与转型: Dhanji 如何通过一封致 Jack Dorsey 的信推动公司转型,以及为何将公司重组为职能型架构(Functional Org)是实现技术聚焦的关键。 * Goose:企业级 AI Agent 实战: 深入介绍 Block 内部开源的 AI 智能体 Goose。它如何基于 MCP(Model Context Protocol)连接 Snowflake、Tableau 等工具,自动生成营销报告、编写代码甚至管理日历。 * 真实的 AI 效率数据: 尽管外界对 AI 生产力存疑,Block 的数据显示 AI 前沿团队每周节省 8-10 小时,全公司平均节省 20-25% 的手动工作时间。 * 非技术人员的 AI 赋能: 令人惊讶的发现——非技术团队(如风险管理、法务)利用 AI 构建工具的积极性和收益往往超过工程师,实现了从“等待排期”到“自主开发”的跨越。 * 代码质量的迷思: 结合 YouTube 和 Google Video 的案例,Dhanji 提出了一个反直觉观点:代码质量与产品成功几乎无关,过度追求架构完美反而可能阻碍价值交付。 * Vibe Coding 与未来编程: 探讨从“乒乓式”对话编程到“自主式”异步编程的转变。未来,工程师可能在睡前布置任务,醒来后审核 AI 连夜完成的多个实验版本。 * 从小事做起(Start Small): 无论是 Cash App、比特币产品还是 Goose,Block 的许多核心产品都源于黑客松或个人的小实验。 * 失败的教训: 回顾 Google Wave 和 Secret 等产品的失败经历,强调在产品开发中“接触地气”和验证核心假设的重要性。 * 给管理者的建议: 亲自使用 AI 工具(Get your hands dirty),不要只看报告;在某些情况下,最好的优化是质疑流程本身的存在必要性,而非用 AI 自动化它。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=JMeXWVw0r3E 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
时尚独角兽 Polyvore 的 CEO,再到如今红杉资本(Sequoia Capital)的合伙人兼首席产品官,Jess Lee 的职业生涯是一部教科书式的“打怪升级”史。本期 Delphi 播客中,她不仅分享了自己在 Google 只有“工程师思维”时的惨痛教训,还坦诚剖析了作为 CEO 时在商业模式选择上的重大失误。 这期内容对于创业者和产品人来说极具含金量。Jess 揭示了红杉看重创始人的核心特质——速度(Velocity)与讲故事的能力,并提出了一个评估人才的新框架(不仅看 IQ/EQ,还要看 PQ 和 JQ)。更令人耳目一新的是她对 AI 消费级应用的“非共识”判断:当所有人都在唱衰媒体投资时,她为何坚信 AI 生成的“微短剧”将诞生下一个 YouTube 或 Netflix?这是一场关于领导力、商业直觉与未来媒体形态的深度对话。 时点内容 | Key Topics * 人才评估新框架: 除了智商(IQ)和情商(EQ),高阶人才还需要政治商数(PQ,处理组织关系的能力)和判断力商数(JQ,商业决策的准确性)。 * Google 的成与败: Google 的伟大在于极致的工程文化和宏大的野心(如街景项目),但早期的失败案例(如分类广告项目)教训惨痛——因为缺乏早期的客户探索,导致做出了“除了结构化搜索没人想要”的产品。 * 从打杂到 CEO: Jess 分享了她在 Polyvore 如何通过“志愿主义”(主动承担没人做的杂事)从一名普通 PM 晋升为 CEO,以及如何克服伴随而来的冒名顶替综合症。 * CEO 的百万美元教训: 回顾 Polyvore 的最大遗憾——选错了商业模式。她深刻反思了为何当初为了追求交易额(GMV)而放弃了类似 Figma 的设计工具路径,导致陷入了低复购的电商困境,而非高利润的 SaaS 模式。 * 社区建设的艺术: 如何通过高接触服务(High-touch)建立邪教般的粉丝忠诚度?比如给用户送上他们收藏已久却买不起的那件单品。 * 红杉的投资视角: 速度至上: 创业就像翻牌游戏,唯一能控制的就是翻牌的速度(迭代速度)。 故事即生产力: 创始人必须像“邪教领袖”一样,用非理性的梦想吸引人才和资本。 * AI 消费应用的未来: 反驳“媒体已死”的观点,看好 AI 驱动的娱乐内容。她预测 AI 生成的微短剧(如“哈利波特版宿醉”)将演变成巨大的新媒体平台,创造出新一代的创作者阶层。 * 团队组建哲学: 寻找“有尖刺”(Spiky)的人才。不需要全能型选手,而是将一个极具创意但混乱的 PM 与一个极度有条理的设计师配对,通过互补实现卓越。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=AmHNJbFlltk 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在 AI 模型的性能不断飞跃的今天,我们如何才能从根本上理解和应用这些进步?Anthropic 的首位产品经理 Diane 深入探讨了他们的最新旗舰模型 Opus 4.5 背后的产品哲学、研究方法论,以及他们对未来 AI 智能形态的思考。 本期节目将带您了解: * 模型进化论: Anthropic 如何以长期路线图为指导,平衡用户需求(如 Excel、PowerPoint)与前瞻能力(如 Computer Use)进行模型迭代。 * 成本与效率: 深入理解 Opus 4.5 不仅性能卓越,而且效率更高、成本更低的原因,以及为什么每 Token 价格并非衡量 LLM 成本的唯一标准。 * Agent 的未来: 探讨从受限环境到开放式任务的 **Long-Running Agents(长期运行智能体)**如何成为下一个主要的产品形态,以及 Anthropic 如何用 Vision 和 Tool Use 推动这一进程。 * Scaffolding 的演变: 揭示开发者围绕模型构建的“脚手架”(Scaffolds)正从早期的“训练轮”演变为**“智能增强器”**,以及如何以更轻量、更通用的工具最大化模型的自主性。 * Anthropic 的秘密武器: 为什么 Anthropic 认为模型对齐(Alignment)和安全性不仅是约束,反而是提升智能质量和商业价值的竞争优势? 这期对话对于任何想要了解 AI 模型背后的决策过程、模型迭代的行业趋势,以及如何构建下一代 AI 应用的开发者和产品经理来说,都极具启发意义。 时点内容 | Key Topics Opus 4.5 的研发与产品哲学 * 长期路线图驱动: 模型的迭代是围绕长期能力蓝图(如指令遵循、编码、记忆)进行的,Claude 的每一次迭代都是实现这些能力的“载体”。 * 平衡需求与想象: 研发方向来自现有用户痛点(如金融服务客户对 Excel/PowerPoint 的需求),但也需要产品经理“想象”出用户尚未意识到的 AI 潜力(如 Computer Use)。 * 模型迭代的“产品文档”: Anthropic 的模型研发流程与传统产品管理类似,从愿景文档开始,定义 "So What"(为什么用户需要它),再转化为可量化的评估标准。 * 早期惊喜: Opus 4.5 的多项能力,特别是更复杂的 Agent 编码任务、更长运行时间和迭代改进方面,已达到一个明显的拐点。 * 视觉能力增强: 视觉能力的提升(如 Claude for Chrome 浏览器扩展)与其他功能协同作用,显著提高了 Computer Use 的交互质量。 效率、成本与市场教育 * 更高的效率和更低的成本: 从 Opus 4.5 开始,Anthropic 实现了显著的效率提升,并将其传递给用户,使得 Opus 模型价格更加亲民。 * “Effort Parameter”被低估: Diane 认为 Effort 参数(可调整推理难度)被低估,它能让用户以更低的成本获得 Opus 4.5 级别的智能。 * Token 成本迷思: 开发者应关注完成一项任务的端到端成本,而非仅仅关注每 Token 的价格。小模型可能因为效率低下,反而消耗更多 Token 才能完成任务。 Agent 与未来产品形态 * Agents 迈向终局: Computer Use(计算机使用能力)已从早期的“实验性功能”演变为可独立运行的端到端 Agent。 * Agent Product-Market-Fit(PMF): Agent 编码是目前 PMF 最强的领域。 * 下一代 Agent: 未来将是主动式、长期运行的智能体,例如 Agent 不仅编写代码,还能维护和重构代码;替你监控和维护任务;或者充当投资者/个人助手进行长期跟踪和周期性决策。 * Scaffolding 的演变: 早期“脚手架”是用来“约束”模型行为的(如“20 条规则”);现在则应是“智能增强器”,通过提供通用工具集和多 Agent 编排来最大化模型的自主性。 公司文化与安全即优势 * Anthropic 文化: 高度人才密集,极度真实,团队成员对使命有着深刻的激进式主人翁意识。 * 关键决策: 拒绝跟随潮流(如在 2023 年坚持专注于 Agentic Coding 而非 Embedding Model),大胆推出 Computer Use Beta 以在真实场景中快速发现问题。 * 安全性的真正价值: 安全和模型对齐不仅仅是为了“限制 AI”,更是为了“提升智能质量”。一个对齐良好的模型不会一味附和用户的想法(对抗“谄媚”),而是能作为独立的思考者,提出新的、颠覆性的替代方案。 给开发者的建议 * 持续原型化: 保持雄心勃勃的原型库,不断用新模型测试过去“失败”的想法。能力是需要被发现的。 * Model Taste(模型品味): 经常亲手使用模型,培养对模型能力和局限性的直觉,知道如何正确地推动或构建脚手架来最大化其效用。 * 拥抱变化: 当新一代模型发布时,不要害怕重构产品体验以匹配新的智能能力。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=V5gTVTCtC6Y 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在 AI 发展日新月异的当下,关于 AGI(通用人工智能)何时到来的争论从未停止。有人认为还需要数年,有人则认为奇点已至。本期节目,我们带来了 Chain of Thought(思维链)提示技术的普及者、OpenAI o1 模型及 Deep Research 的共同创造者、现任 Meta 超级智能实验室研究员 Jason Wei 在斯坦福 AI 俱乐部的最新演讲。 Jason 并没有给出一个简单的“是”或“否”,而是提出了三个简洁而深刻的思维框架,帮助我们驾驭接下来的 AI 浪潮。这期内容不仅解释了为什么“智能”的价格将趋近于零,还通过“验证者定律”揭示了 AI 解决难题的底层逻辑,并用“智能的参差边缘”打破了关于 AI 快速起飞的单一叙事。无论你是 AI 研究者、开发者还是对未来感到迷茫的普通人,这套分析框架都能帮你更理性地判断 AI 在不同领域落地的真实速度和潜力。 时点内容 | Key Topics * 智能商品化 (Intelligence as a Commodity): 随着自适应计算(Adaptive Compute)和推理时计算(Test-time Compute)的引入,即使不单纯扩大模型规模,获取智能的成本也将持续趋近于零。 * 知识获取的瞬间化: 从去图书馆查阅资料,到互联网搜索,再到 AI Agent 时代,获取公共信息的阻力将完全消失,这意味着基于信息差的壁垒将被打破。 * 验证者定律 (Verifier's Law): 生成很难,但验证往往很容易(如数独、代码)。Jason 提出,AI 解决任务的能力与该任务的“可验证性”成正比。凡是容易验证的任务(具备客观真理、快速反馈、低噪音等特征),最终都会被 AI 攻克。 * 利用不对称性训练 AI: DeepMind 的 AlphaEvolve 等案例展示了如何利用“生成-验证”的不对称性,通过大量计算和自我博弈来提升 AI 性能。 * 智能的参差边缘 (The Jagged Edge of Intelligence): 反驳“快速起飞”理论。AI 不会一夜之间在所有领域超越人类,而是在不同任务上表现出参差不齐的进步速度。 * AI 进步的三大启发式法则: 数字化任务、人类容易做但数据量大的任务、以及拥有丰富数据的领域,AI 将发展最快。 * 未来预测图谱: Jason 对不同领域被 AI 攻克时间的预测——从翻译、编程(已攻克)到 AI 研究(2027)、电影制作(2029),再到几乎不可能被替代的管道维修和情感陪伴。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=b6Doq2fz81U 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在 AI 领域,从“One Model Rules All”的 AGI 愿景,到如今各种垂直模型、微调技术和开源生态百花齐放,行业共识正在发生巨大转变。本期节目,a16z 的 Martin Casado 深度对话 OpenAI 开发者平台工程主管 Sherman Wu。 他们探讨了 OpenAI 如何在作为垂直应用(ChatGPT)和水平平台(API)之间取得平衡,以及为什么“微调”(Fine-tuning)和“强化微调”(Reinforcement Fine-tuning)正在成为企业挖掘数据价值的关键。Sherman 还分享了他从 Quora、Opendoor 到 OpenAI 的独特职业路径,以及对开源模型、Agentic AI 和未来编程范式的深刻见解。 您将了解到: * OpenAI 的双重身份: 既是拥有 8 亿周活用户的超级应用开发者,又是为数百万开发者提供 API 的基础设施提供商,这种内部张力如何化解? * 微调的崛起: 为什么企业不再满足于通用模型?强化微调(RFT)如何让企业利用私有数据训练出超越通用模型的垂直领域专家? * 开源与闭源的博弈: OpenAI 为何开始拥抱开源?开源模型对 API 业务不仅没有蚕食,反而促进了生态繁荣? * Agent 的形态: 从自由探索的 Coding Agent 到受 SOP 严格约束的客服 Agent,未来的 AI 智能体将呈现怎样的多样性? * 编程的未来: 为什么 Sherman 认为未来的应用不仅不会屏蔽底层模型,反而会更直接地将模型能力暴露给用户? 时点内容 | Key Topics: * OpenAI 的平台愿景: API 与 ChatGPT 并行,不仅是产品,更是将 AI 惠及大众的两种不同路径。 * 从 Opendoor 到 OpenAI: Sherman 分享他在 Opendoor 定价团队的经历,以及这段经历如何影响他对 AI 平台建设的理解。 * 微调(Fine-tuning)的新范式: 传统的监督微调(SFT)只能改变语气,而强化微调(RFT)能让模型在特定任务上达到 SOTA 水平。 * 模型多样化: 行业共识从“一个模型统治所有”转变为“多模型共存”,不同模型(如 o1, gpt-4o)服务于不同场景(如深度推理 vs. 快速响应)。 * 开源模型的影响: OpenAI 发布开源模型并非反商业,而是为了做大生态,推理服务的复杂性是其护城河。 * Agent Builder 与低代码: 尽管有人质疑低代码工具的灵活性,但对于受监管行业和标准化流程(SOP),确定性的 Agent 构建工具至关重要。 * 提示工程(Prompt Engineering)的演变: 从早期的“模型会自动理解”到现在的“上下文工程”(Context Engineering),开发者需要更精细地管理输入。 * AI 原生应用的交互: 为什么未来的应用很难像传统软件那样完全封装 AI?用户与模型的直接互动(如 Cursor)或许是不可逆转的趋势。 * 定价模式的思考: 从按 Token 收费到按结果收费(Outcome-based pricing),AI 商业模式的探索仍在继续。 相关链接与资源: [视频来源]www.youtube.com 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
为什么 95% 的企业 AI 项目仍停留在 POC 阶段,无法产生实际价值?本期节目基于 AWS re:Invent 2025 的精彩演讲,深入剖析了制约 AI 智能体(Agent)落地的核心瓶颈——记忆缺失。 如果您的 AI 智能体总是忘记用户目标、无法处理多轮对话,或者在长任务中表现崩溃,那么本期内容正是为您准备的。我们不仅指出了问题,更提供了一套完整的解决方案:从**上下文工程(Context Engineering)到记忆工程(Memory Engineering)**的系统性方法论。 您将了解到: * 上下文不是记忆: 为什么单纯扩大 LLM 的 Context Window(上下文窗口)无法解决遗忘问题? * 记忆的三种形态: 短期记忆、长期记忆和共享记忆分别解决了什么问题? * 记忆生命周期: 如何构建一个包含输入、转换、存储、索引和检索的完整记忆闭环? * 实战架构: 如何利用 MongoDB Atlas 和 Voyage AI 构建高效的向量检索和语义缓存系统,让智能体真正具备“大脑”。 无论您是 AI 开发者、架构师,还是关注 AI 落地的企业决策者,这期节目都将为您提供构建可靠、智能且具备持续学习能力的 Agent 的关键蓝图。 时点内容 | Key Topics * AI 落地的残酷现状:MIT 报告显示 95% 的企业未从 AI 中获益,只有 5% 的成功者掌握了关键——不仅是模型质量,更是智能体工作流的设计,核心在于记忆管理。 * LLM 的三大局限:参数记忆不可更新、上下文窗口短暂且易逝、缺乏跨会话的持久状态。 * 更大的模型不是万能药:揭示“100万 Token 上下文窗口”的真相——有效利用率仅为 20%-30%,且长上下文会导致检索精度下降(Lost in the Middle)。 * 上下文工程 vs. 记忆工程: 上下文工程:关注此时此刻(In-context),解决“让模型看到什么”的问题。 记忆工程:关注持久化(Persistence),解决“让模型记住什么”的问题。 * Agent 的解剖学:认知(LLM)、行动(Tools)、感知(Inputs)和**记忆(Memory)**四大支柱。 * 三种应用模式与记忆需求: 助手模式(Assistant Mode):需要对话连续性,依赖语义缓存和情景记忆。 工作流模式(Workflow Mode):需要步骤一致性,依赖程序性记忆和状态日志。 深度研究模式(Deep Research Mode):需要多智能体协作,依赖共享记忆(Shared Memory)。 * 提升检索质量的技巧: 查询增强(Query Augmentation):重写、扩展和分解查询。 分块与元数据:合理的 Chunking 和丰富的 Metadata 是精准检索的基础。 Voyage Context 3:利用上下文感知模型提升长文档检索效果。 * 记忆系统的四大杀手:漂移(Drift)、过载(Overload)、碎片化(Fragmentation)和污染(Contamination)。 * MongoDB + Voyage 的解决方案:如何利用 MongoDB 的灵活文档模型、原生向量搜索,结合 Voyage 的高质量 Embedding 和 Reranking 模型,构建一体化的 AI 记忆引擎。 * 核心结论:只有具备可靠记忆系统的 Agent,才能成为可靠的智能体。记忆工程已成为 AI 开发的必修课。 相关链接与资源: [视频来源]www.youtube.com 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
在构建 AI 智能体(Agent)时,开发者常常面临一个核心瓶颈:Context Window(上下文窗口)是有限的。随着对话轮次的增加,早期的关键信息往往被挤出,导致 Agent 变得“健忘”,不得不反复询问用户已经提供过的信息。如何打破这一限制,让 Agent 拥有类似人类的短期和长期记忆? 本期节目,我们将深入解读 OpenAI 解决方案架构师带来的 Agent Memory Patterns(智能体记忆模式)。这不仅是一次技术分享,更是一套关于**上下文工程(Context Engineering)**的系统性方法论。您将了解到: * 上下文工程的核心理念: 为什么说它是 AI 开发中的“艺术与科学”?如何通过重塑(Reshape)、隔离(Isolate)和提取(Extract)三大策略,最大化有限 Token 的价值。 * 四大失效模式: 深入剖析 Context Burst(上下文爆发)、Context Conflict(上下文冲突)、Context Poisoning(上下文中毒)和 Context Noise(上下文噪音),教你如何避开这些常见的开发陷阱。 * 实战技术全解析: 修剪(Trimming)与压缩(Compaction): 如何在不丢失关键信息的前提下,优雅地丢弃旧对话和冗余的工具调用结果? 摘要(Summarization): 如何利用结构化 Prompt 生成高质量的“黄金摘要”,并将其作为记忆注入回上下文? 长期记忆与跨会话状态: 演示如何通过持久化存储和检索,让 Agent 在不同会话间记住用户的偏好(如“我喜欢靠窗座位”或“我有台 2014 年的 MacBook”)。 * OpenAI Agents SDK 实操: 即使你是初学者,也能通过具体的代码示例(基于 OpenAI Agents SDK),看到从简单的 IT 支持机器人进化为拥有长期记忆的智能助手的全过程。 无论您是正在构建客户服务 Agent、个人助理,还是复杂的企业级智能体应用,本期内容都将为您提供从理论到代码的可落地指南,助您打造更智能、更连贯的用户体验。 时点内容 | Key Topics: * 上下文工程(Context Engineering)概览: 定义及其重要性,它超越了简单的 Prompt Engineering,包含了 RAG、状态管理、记忆等多个维度。 * Agent 记忆的核心挑战: 有限的上下文窗口 vs. 无限增长的对话历史。 * Before & After 对比: 有无记忆机制的 Agent 在处理长对话时的表现差异(如是否需要重复询问用户设备型号)。 * 四大失效模式详解: Context Burst(上下文爆发): 某个工具返回大量数据(如 3000 tokens 的退款政策),瞬间挤占上下文。 Context Conflict(上下文冲突): 不同工具或系统提示给出相互矛盾的信息。 Context Poisoning(上下文中毒): 错误信息进入上下文并随对话传播。 Context Noise(上下文噪音): 过多无用信息干扰模型判断。 * 技术方案一:Reshape & Fit(重塑与适应): Trimming(修剪): 保留最近 N 轮对话,简单高效但可能丢失信息。 Compaction(压缩): 仅移除旧的工具调用结果,保留对话逻辑。 Summarization(摘要): 将旧对话压缩为结构化摘要(Memory Object),作为新的一轮对话输入。 * 技术方案二:Isolate & Route(隔离与路由): 将任务分发给不同的子智能体(Sub-agents),每个子智能体维护独立的上下文,减少干扰。 * 技术方案三:Extract & Retrieve(提取与检索): Short-term vs. Long-term Memory: 会话内记忆 vs. 跨会话记忆。 Memory as a Tool: 使用专门的工具将关键信息(如用户偏好、设备信息)提取并存储到数据库或向量库中,在需要时检索注入。 * 实战 Demo 演示: 展示基于 IT 支持场景的 Dual Agent Demo。 演示 Trimming、Compaction 和 Summarization 的实时效果和 Token 变化。 演示跨会话记忆(Cross-session Memory):Agent 在新会话中依然记得用户的 MacBook 型号和购买地。 * 最佳实践与 Q&A: 如何评估记忆系统的效果?(对比有无记忆的 Evals、建立记忆专项 Evals)。 如何处理记忆的更新与遗忘?(时间戳标签、权重衰减)。 大规模用户场景下的记忆扩展性问题。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=WsGVXiWzTpI 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧