EP134:Notion 如何重新定义未来的工作方式

播客无国界

Notion 如今已是估值超 100 亿美元、年收入(ARR)超 5 亿美元的超级独角兽,但在 2015 年,它曾濒临倒闭。当时的 Notion 现金流耗尽,产品建立在随时可能崩溃的单一数据库上,团队面临解散的危机。 本期节目带我们走进 Notion 的幕后,对话联合创始人 Simon Last 和 COO Akshay Kothari。他们揭秘了那段最黑暗的时光——创始人如何破釜沉舟搬到日本京都,在完全不懂语言的环境下通过 18 小时的每日编程重建了产品。 更重要的是,本期节目深入探讨了 Notion 3.0 的核心战略:全面拥抱 AI 代理(Agents)。Notion 内部目前拥有 560 个活跃的自定义 Agent,这意味着每两个员工就配备了一个 AI 助手。他们如何看待未来的工作形态?为什么说未来的每个人都将成为“AI 代理的管理者”?这是一次关于创业韧性、产品哲学与未来工作方式的深度探秘。 时点内容 | Key Topics * 濒死体验与京都重生: 回顾 2015 年 Notion 耗尽资金的危机时刻。创始人 Ivan 和 Simon 选择搬到京都,在与世隔绝的环境中重写代码,将“品味”(Taste)作为产品的核心护城河。 * 从 100 万到 5 亿 ARR 的扩张: COO Akshay 分享从 8 人团队增长到 1000 人大厂的挑战,以及在 TikTok 爆火导致服务器险些崩溃的惊险瞬间。 * COO 的自我毁灭哲学: Akshay 认为 COO 的工作就是不断“把自己炒鱿鱼”——先身兼数职(销售、财务、法务),然后招人替代自己,最终专注于最核心的战略。 * AI 时代的 Notion 3.0: Notion 不再仅仅是文档或数据库,而是致力于成为“知识工作者的 AI 基础设施”。 * 内部数据大公开: Notion 内部目前有 560 个活跃的自定义 AI Agent,相当于每两名员工就有一个 Agent 在后台处理重复性工作。 * 未来工作形态预测: 人类的角色将从“执行者”转变为“协调者”。未来的工作不是自己动手做所有事,而是管理和审计一群日益复杂的 AI 智能体群(Swarms of Agents)。 * “柔软”的软件哲学: 即使在 AI 时代,Notion 依然坚持软件应该是“可塑的”(Malleable)和“柔软的”,让用户像搭积木一样自定义自己的工具,而不是被僵化的 SaaS 流程所束缚。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=l8xdRcN81x8 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。 附录: Notion 的创始人 Ivan Zhao 的精彩文章:《钢铁、蒸汽机与无限大脑》 越来越清晰的感觉到,我们正处于 AI 革命的早期阶段,对于未来谁也不知道会怎么样,所以都喜欢从历史中、去工业革命、互联网革命中寻找规律,以期望能对未来有所启发。 相对来说,这篇文章虽然也是尝试从钢铁和蒸汽机的历史里,寻找 AI 时代的答案,还是挺有深度。 【1】第一个观点是:我们正在看着后视镜开车 每一代新技术刚出来时,人们总是习惯用旧的方式去理解它。这就是所谓的“看着后视镜驶向未来”。 想想看,早期的电话,大家把它当成“会说话的电报";早期的电影,其实就是把摄像机架在观众席拍舞台剧。 现在的 AI 也是一样。我们看到的 AI 大多长什么样?一个聊天框。为什么?因为它在模仿 Google 搜索框。 我们正处在这个尴尬的过渡期。就像当年大家还不懂电影剪辑语言一样,我们现在还在试图把 AI 硬塞进旧的工作模式里。 【2】个人层面:从骑自行车到开汽车 乔布斯当年有个著名的比喻,说电脑是“大脑的自行车"。意思是它能让人跑得更快,但你还得自己蹬。 对于现在的程序员来说,AI 已经不是自行车了,而是汽车。你不用蹬了,你只需要握好方向盘。 Ivan 讲了他的联合创始人 Simon 的故事。 Simon 以前是传说中的“10 倍工程师",但现在几乎不自己写代码了。路过他工位,你会看到他像指挥官一样同时调度三四个 AI 编程智能体。这些 AI 不只打字快,还能思考。他在吃饭或睡前把任务排好队,AI 就在后台疯狂干活。 他从“写代码的人",变成了“管理无限大脑的人"。 【3】为什么只有程序员先享受到了从骑自行车到开汽车的待遇? 但问题来了,为什么只有程序员先享受到了这种待遇?普通的文案、运营、产品经理为什么还在“蹬自行车"? 两个原因: 第一,上下文太碎了。程序员的代码都在仓库里,环境单纯。 但普通人的工作散落在 Slack、飞书、文档、甚至脑子里。AI 不知道前因后果,没法干活。 第二,没法验证。代码写错了会报错,好坏一目了然。 但一个活动策划案好不好?一份周报写得对不对?这很难量化。 所以,想要从自行车升级到汽车,我们得先帮 AI 把上下文补齐,并且找到验证工作成果的方法。 【4】组织层面:不仅是换引擎,还要换地基 个人层面说完,Ivan 把视角拉到组织层面,用了“钢铁"和“蒸汽机"两个比喻,来解释 AI 会如何重塑公司。 第一个是钢铁。 在钢铁普及之前,房子盖不高。因为用砖头和木头,盖到六七层,底下的墙就被压垮了。这就像现在的公司,人数一过几百,沟通成本就爆炸了,效率急剧下降。人与人之间的沟通,就是那个脆弱的“砖墙"。 AI 就是组织的“钢铁"。它能支撑起巨大的信息流,让决策不需要层层汇报就能完成。未来的公司,可能几千人规模还能像创业团队一样敏捷,因为 AI 撑住了沟通的架构。 第二个是蒸汽机。 最早的工厂都建在河边,因为要用水车做动力。蒸汽机刚发明时,很多老板只是把水车拆了,换成蒸汽机,但工厂还在河边,流程也没变。效率提升非常有限。 直到后来,老板们意识到: “等一下,既然不用水了,我为什么不把工厂搬到离港口更近的地方?" 工厂可以建在离工人、港口、原材料更近的地方。整个车间可以围绕蒸汽机重新设计。后来电力普及,工厂进一步把集中的动力轴拆散,给每台机器配上独立的电机。生产力才真正爆发,第二次工业革命才真正起飞。 我们现在还在“换水车"阶段。AI 聊天机器人挂在现有工具上,工作流程还是为人设计的。我们还没认真想过:如果旧的约束消失了,组织应该长什么样? 真正的变革,是当管理者意识到可以彻底重组工作流,让那些“不睡觉的大脑"去处理所有重复性工作的时候。 Notion 自己就在做实验。他们 1000 人的公司里,活跃着 700 多个 AI Agent。这些 AI 负责写会议纪要、回答内部咨询、处理 IT 请求、写周报。这不仅仅是省时间,这是在重塑组织形态。 回看你的工作,如果只是用 ChatGPT 润色邮件,那你就是在把水车换成蒸汽机,工厂还在河边。试着想一想:如果我有无限个免费实习生(AI),工作流程应该怎么彻底重设计? 【5】经济层面:从佛罗伦萨到东京 最后 Ivan 把视角再拉高一层:钢铁和蒸汽不只改变了建筑和工厂,还改变了城市。 几百年前,城市是人类尺度的。佛罗伦萨走个四十分钟就能穿城而过,生活节奏由人能走多远、声音能传多响决定。然后钢铁框架让摩天楼成为可能,蒸汽铁路把市中心和腹地连起来,电梯、地铁、高速公路跟上。城市在规模和密度上爆发了。东京、重庆、达拉斯,这些不是“更大版本的佛罗伦萨",而是完全不同的生存方式——更混乱、更匿名、更难辨认方向,但也提供了更多机会和自由。 Ivan 认为知识经济正站在同样的转折点上。今天的知识工作占了美国 GDP 的近一半,但大部分还是人类尺度的运作:几十人的团队,会议和邮件定义的节奏,超过几百人就开始失灵的组织。我们用石头和木头建造了很多佛罗伦萨。 当 AI 智能体大规模上线,我们会开始建造东京。成千上万的智能体和人类协作,工作流程全天候运转不等人醒来,决策在恰到好处的人类参与下被综合。周会、季度规划、年度考核的节奏可能不再合理,新的节奏会涌现。 我们将失去一些“小而美"的清晰感,但会换来前所未有的规模和速度。 Ivan 提到一个历史趣事:1865 年英国有个《红旗法案》,规定汽车上路时必须有人举着红旗走在前面开路。听起来荒谬,但我们现在要求 AI 每做一步都要人确认,是不是也像“举红旗"?真正的未来,是人站在更高处监管,而不是挡在路中间。 也许我们应该停止从后视镜看世界,开始想象新的可能。卡内基看着钢铁,看到了城市天际线。兰开夏郡的工厂主看着蒸汽机,看到了不再依赖河流的车间。 我们还在问 AI 怎么当好“副驾驶"。也许该问的是:当无限心智成为基础设施,知识工作会变成什么样? 这个问题,Ivan 没给答案。但他给了一个思考的框架。对于正在这场变革中的人来说,框架可能比答案更有用。

26分钟
30
1周前

EP133:(lenny播客)OpenAI Codex 产品负责人专访-Sora App 如何在 18 天内打造完成?

播客无国界

本期节目,Lenny 独家对话 OpenAI Codex 的产品负责人 Alexander Embiricos。在 GPT-5 发布后的几个月里,OpenAI 的编码智能体 Codex 经历了爆发式增长。Alexander 分享了 Codex 如何从一个模型代号重生为 OpenAI 最核心的“软件工程师队友”。 这不仅是一次产品访谈,更是对 2026 年 AI 发展趋势的深度预演。你将听到 OpenAI 内部令人咋舌的开发速度——仅用 2-3 名工程师和 18 天就构建了霸榜 App Store 的 Sora Android 应用。Alexander 还深入探讨了为什么 AI 发展的当前瓶颈不再是算力,而是人类的“打字速度”和“审查速度”;以及 OpenAI 正在构建的神秘浏览器项目 Atlas。无论你是开发者、产品经理,还是关注 AGI 进程的观察者,这期内容都将带你提前看到 AI 协作的未来形态。 时点内容 | Key Topics * Codex 的重生: 为什么 OpenAI 决定重启“Codex”品牌?它不再仅仅是 Copilot 背后的模型,而是一个包含 VS Code 插件和 CLI 工具的完整编码智能体。 * Sora App 的疯狂开发: 揭秘 Sora Android 应用的开发内幕——利用 Codex 进行代码移植和生成,仅用 18 天完成内部版,28 天正式上线并登顶 App Store。 * Atlas 浏览器: OpenAI 正在构建名为 Atlas 的浏览器?Alexander 解释了为何要进入浏览器领域,以及“上下文感知”如何让 AI 在网页工作中更主动地提供帮助。 * AI 的新瓶颈: 一个反直觉的观点:目前限制 AGI 发展的最大因素是人类的打字速度和多任务处理能力(主要是为了审查 AI 的工作)。 * 从助手到队友: 未来的 Codex 不仅仅是写代码,还能像真正的实习生一样,自我修复训练运行中的错误(On-call),甚至主动在 Slack 上回答数据波动的问题。 * 压缩人才栈(Compressing the Talent Stack): 设计师通过“Vibe Coding”直接生成动画代码,产品经理直接修改文案字符串——AI 如何模糊了传统职能的边界? * AGI 时间表与 2026 预测: Alexander 预测 2026 年将是 Agent 真正爆发的一年,并给出了他对 AI 发展“曲棍球棒”曲线的看法。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=z1ISq9Ty4Cg 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

91分钟
59
1周前

EP132:从 15 人运营 4 个 SaaS 说起-揭秘 100% AI 原生公司的构建法则

播客无国界

在 AI 辅助编程普及的今天,许多公司虽然有 90% 的工程师在使用 Copilot,但依然保留着传统的开发流程。本期节目,我们邀请到媒体兼软件公司 Every 的 CEO Dan Shipper,他分享了一个激进的观点:90% 的 AI 采用率和 100% 的 AI 采用率之间存在着 10 倍的效率差距。 Dan 详细展示了 Every 作为一个仅有 15 人的团队,如何在不融资的情况下,仅靠单人开发者就构建并维护了 Kora、Monologue 等 4 个复杂的商业化软件产品。这背后的秘密在于他们彻底重构了工程流程,提出了**“复利工程”(Compounding Engineering)**的新范式——让 AI 编写 99% 的代码,并将每一次开发经验都固化为全公司共享的资产。你将看到 AI 如何让新员工入职第一天就提交代码,如何让不同技术栈的团队无缝协作,甚至让 CEO 利用碎片时间重回代码一线。 时点内容 | Key Topics * 100% AI 采用率的质变: 为什么说只要有 10% 的流程停留在旧时代,就会拖累整个组织的效能?从“辅助编码”到“全权委托”的思维转变。 * Every 的疯狂实验: 15 人团队运营 6 个业务单元和 4 个软件产品,且每个 App 仅由一名开发者构建,99% 代码由 AI 生成。 * 复利工程(Compounding Engineering): 只有 AI 时代才可能实现的工程新哲学。 目标: 让开发的每一个功能都使下一个功能的开发变得更容易。 四步循环: 计划(Plan)、委托(Delegate)、评估(Assess)、固化(Codify)。 核心动作 Codify: 将隐性知识(Tacit Knowledge)转化为全公司共享的 Prompts 和 Agent 配置文件。 * 组织架构的二阶效应(Second-order Effects): 隐性代码共享: 不需要复杂的库封装,AI 可以直接读取同事的代码并为你在新栈中复现逻辑。 新员工即插即用: 所有的环境配置和规范都已写入 Agent,新员工第一天即可高效产出。 跨项目贡献(Internal Open Source): 任何开发者甚至管理者都能轻松修复其他产品的 Bug,因为理解代码的成本几乎为零。 技术栈自由: 不再需要强制统一语言,AI 让 Python 和 Node.js 开发者之间的隔阂消失。 管理者的回归: 利用 AI 这种“注意力碎片化”工具,CEO 也能在会议间隙修复 Bug 或提交功能,重获对产品的掌控感。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=MGzymaYBiss 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

17分钟
42
1周前

EP131:AI 购物革命-从“搜索栏已死”到 3850 亿美元的新金矿

播客无国界

搜索栏正在消亡,消费者的购物习惯正经历一场从“搜索与浏览”到“提问与购买”的根本性重塑。当 ChatGPT 为 Zara 和 H&M 带来的流量占比甚至超过传统广告时,我们正站在一个价值 3850 亿美元的“代理商务(Agentic Commerce)”市场的入口。 本期节目揭示了这场 AI 购物革命背后的底层逻辑:流量套利(Arbitrage)已从“注意力”转向了“信任”。AI 正逐渐成为消费者与产品之间最受信任的中间人。我们不仅会分析为什么大企业虽然看到了趋势却难以转身,更会为你提供三个具体可执行的商业模式,助你在 2026 年利用 AI 工具以极低的成本和极快的速度建立竞争优势,无论是打造 AI 原生品牌、构建垂直领域的购物代理,还是成为新兴的 GEO(生成式引擎优化)专家。 时点内容 | Key Topics * 搜索栏的消亡与信任套利的崛起: 消费者不再搜索关键词,而是向 AI 寻求直接的解决方案。AI 的推荐比付费广告更具公信力,标志着商业竞争的核心从争夺注意力转向争夺 AI 的信任。 * 商业模式一:AI 原生电商品牌(AI First E-commerce Brand): 极速验证: 利用 Nano Banana 2 等图像模型在一个下午生成并测试数百个产品概念,无需预先制造。 内容工厂: 全自动生成产品图、视频广告和社交媒体内容,无需摄影师和工作室。 低成本运营: 利用现成的 AI 客服代理实现 24/7 服务,以极低的日常开销对抗传统巨头。 * 商业模式二:垂直领域的 AI 购物助手(Niche AI Shopping Assistant): 避开通用大模型: 不要试图做一个“万能导购”,通用 AI 什么都懂但什么都不精。 深耕价值型需求: 针对道德供应链、纯素食主义者等特定群体,构建基于规则和深层数据的专用代理(如使用 n8n 等低代码工具),提供通用模型无法给予的深度验证和信任。 变现路径: 通过订阅费或高额佣金实现盈利,是一次构建、无限服务的“产品化服务”。 * 商业模式三:生成式引擎优化服务(GEO - Generative Engine Optimization): 新时代的 SEO: 帮助品牌优化其在线资产,使其更容易被 AI 模型理解和推荐。 蓝海市场: 目前全球精通此道的专家极少。工作内容包括重写产品描述、添加结构化数据,确保品牌在 ChatGPT 等平台的回答中占据“首推”位置。 持续性收入: 这不是一次性的修复,而是需要长期维护的月费制服务。 * 数字地产的重要性: 在 AI 时代,拥有一个清晰、可信的域名(如 .store)是向 AI 和用户传递“我是专业卖家”这一信号的关键,其带来的信任感直接转化为转化率。 * 未来的机会所在: 真正的机会不在于开发大模型,而在于成为“系统架构师”——将强大的 AI 工具应用于现实世界的细分问题,从执行者转变为品味把控者和系统设计者。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=Lw5Gy881PJ8 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

15分钟
68
1周前

EP130:AI 工程化实战指南-RAG、微调与被低估的数据工作

播客无国界

在 AI 领域,Chip Huyen 是少有的既具备顶尖学术背景(斯坦福讲师、Netflix/NVIDIA 研究员),又能深入企业一线解决实际问题的实战派专家。她撰写的《AI Engineering》不仅是畅销书,更是无数开发者的案头指南。 本期节目,Lenny 与 Chip 进行了一场硬核而深度的对话,直击 AI 应用开发的痛点。Chip 犀利地指出,大多数公司在 AI 转型中陷入了误区:过度迷恋最新的模型和新闻,却忽视了数据质量和用户需求这些“枯燥”但决定成败的基础工作。 您将了解到: * 戳破泡沫: 为什么 Chip 认为“紧跟 AI 新闻”往往是浪费时间?她那张刷屏的“认知偏差图”背后,揭示了构建 AI 产品时哪些工作才是真正的高杠杆。 * 技术祛魅: 用最通俗的语言拆解预训练(Pre-training)、后训练(Post-training)、微调(Fine-tuning)和 RLHF 的本质区别。 * RAG 实战心法: 为什么在检索增强生成(RAG)中,数据准备(Data Prep)远比选择哪个向量数据库重要? * 工程师的未来: AI 会取代初级工程师还是让资深工程师更强大?Chip 分享了关于“系统思维”(System Thinking)为何是未来核心竞争力的独到见解。 * 跨界思考: 从撰写技术书籍到创作虚构小说,Chip 如何通过跨界写作来提升对用户心理的感知力? 无论你是正在构建 AI 应用的工程师、产品经理,还是关注技术趋势的决策者,这期节目都能帮你拨开迷雾,找到 AI 工程化的正确路径。 时点内容 | Key Topics * AI 开发的认知偏差: 深入解读那张病毒式传播的图表——人们以为重要的是最新的 Agent 框架和模型对比,但实际上真正重要的是与用户交谈、构建可靠的平台和准备更好的数据。 * 预训练 vs. 后训练: 形象地解释预训练就像学习语言统计规律,而后训练(微调/RLHF)则是通过强化学习让模型掌握特定任务或领域知识。 * RAG(检索增强生成)的关键: 许多团队过度纠结于数据库选型,却忽略了数据分块(Chunking)、元数据管理和文档重写等“数据准备”工作,而这才是提升检索质量的根本。 * 评估(Evals)的艺术: 为什么在大规模应用中必须要有严格的评估体系,但在产品早期“凭感觉”(Vibes)可能就足够了?如何设计有效的评估指标? * AI 对生产力的真实影响: 分享了一个有趣的实验——将工程师分为高中低绩效三组,发现 AI 工具对高绩效工程师的提升最大,因为他们更具备解决问题的能力。 * 未来的核心技能:系统思维: 随着 AI 接管越来越多的代码编写工作,计算机科学教育将从“教你写代码”转向“教你设计系统”和解决问题。 * 组织架构的变革: AI 正在打破产品、工程和设计之间的界限,未来的团队将更加融合,甚至出现“全栈构建者”。 * 个人哲学与写作: Chip 分享了她的人生格言“Nothing really matters”(虚无主义带来的自由感),以及通过写小说来训练“预测读者反应”的能力,这对做产品同样适用。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=qbvY0dQgSJ4 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

62分钟
85
2周前

EP129:(lenny播客)Block 如何转型为全球最 AI Native的企业

播客无国界

在大多数企业还在争论 AI 是否过度炒作时,Block(原 Square)已经通过内部自研的 AI Agent "Goose" 实现了惊人的效率提升。本期节目,我们邀请到了 Block 的首席技术官 Dhanji R. Prasanna,深度解析这家金融科技巨头如何转型为 AI 原生企业。 Dhanji 分享了 Block 如何通过组织架构重组(从 GM 结构转为职能结构)来打破部门壁垒,为 AI 的全面落地铺平道路。最令人兴奋的是,他详细介绍了基于开源协议 MCP 构建的 Goose——这不仅仅是一个聊天机器人,更是一个能操作数据库、编写代码、甚至自动优化日程的智能体。目前,Block 的 AI 前沿团队每周能节省 8-10 小时的工作时间。 此外,Dhanji 还分享了他从 Google Wave、Google+ 到 Cash App 的职业生涯中汲取的宝贵教训,探讨了为什么“代码质量”往往与产品成功无关,以及为何初级员工和非技术人员反而是 AI 浪潮的最大受益者。无论你是正在探索企业 AI 落地的管理者,还是对 Agentic AI 感兴趣的开发者,这期节目都将为你提供一份来自一线的实战蓝图。 时点内容 | Key Topics * Block 的 AI 宣言与转型: Dhanji 如何通过一封致 Jack Dorsey 的信推动公司转型,以及为何将公司重组为职能型架构(Functional Org)是实现技术聚焦的关键。 * Goose:企业级 AI Agent 实战: 深入介绍 Block 内部开源的 AI 智能体 Goose。它如何基于 MCP(Model Context Protocol)连接 Snowflake、Tableau 等工具,自动生成营销报告、编写代码甚至管理日历。 * 真实的 AI 效率数据: 尽管外界对 AI 生产力存疑,Block 的数据显示 AI 前沿团队每周节省 8-10 小时,全公司平均节省 20-25% 的手动工作时间。 * 非技术人员的 AI 赋能: 令人惊讶的发现——非技术团队(如风险管理、法务)利用 AI 构建工具的积极性和收益往往超过工程师,实现了从“等待排期”到“自主开发”的跨越。 * 代码质量的迷思: 结合 YouTube 和 Google Video 的案例,Dhanji 提出了一个反直觉观点:代码质量与产品成功几乎无关,过度追求架构完美反而可能阻碍价值交付。 * Vibe Coding 与未来编程: 探讨从“乒乓式”对话编程到“自主式”异步编程的转变。未来,工程师可能在睡前布置任务,醒来后审核 AI 连夜完成的多个实验版本。 * 从小事做起(Start Small): 无论是 Cash App、比特币产品还是 Goose,Block 的许多核心产品都源于黑客松或个人的小实验。 * 失败的教训: 回顾 Google Wave 和 Secret 等产品的失败经历,强调在产品开发中“接触地气”和验证核心假设的重要性。 * 给管理者的建议: 亲自使用 AI 工具(Get your hands dirty),不要只看报告;在某些情况下,最好的优化是质疑流程本身的存在必要性,而非用 AI 自动化它。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=JMeXWVw0r3E 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

77分钟
97
2周前

EP128:被低估的 AI 消费级应用-为什么微短剧可能是下一个 Netflix

播客无国界

时尚独角兽 Polyvore 的 CEO,再到如今红杉资本(Sequoia Capital)的合伙人兼首席产品官,Jess Lee 的职业生涯是一部教科书式的“打怪升级”史。本期 Delphi 播客中,她不仅分享了自己在 Google 只有“工程师思维”时的惨痛教训,还坦诚剖析了作为 CEO 时在商业模式选择上的重大失误。 这期内容对于创业者和产品人来说极具含金量。Jess 揭示了红杉看重创始人的核心特质——速度(Velocity)与讲故事的能力,并提出了一个评估人才的新框架(不仅看 IQ/EQ,还要看 PQ 和 JQ)。更令人耳目一新的是她对 AI 消费级应用的“非共识”判断:当所有人都在唱衰媒体投资时,她为何坚信 AI 生成的“微短剧”将诞生下一个 YouTube 或 Netflix?这是一场关于领导力、商业直觉与未来媒体形态的深度对话。 时点内容 | Key Topics * 人才评估新框架: 除了智商(IQ)和情商(EQ),高阶人才还需要政治商数(PQ,处理组织关系的能力)和判断力商数(JQ,商业决策的准确性)。 * Google 的成与败: Google 的伟大在于极致的工程文化和宏大的野心(如街景项目),但早期的失败案例(如分类广告项目)教训惨痛——因为缺乏早期的客户探索,导致做出了“除了结构化搜索没人想要”的产品。 * 从打杂到 CEO: Jess 分享了她在 Polyvore 如何通过“志愿主义”(主动承担没人做的杂事)从一名普通 PM 晋升为 CEO,以及如何克服伴随而来的冒名顶替综合症。 * CEO 的百万美元教训: 回顾 Polyvore 的最大遗憾——选错了商业模式。她深刻反思了为何当初为了追求交易额(GMV)而放弃了类似 Figma 的设计工具路径,导致陷入了低复购的电商困境,而非高利润的 SaaS 模式。 * 社区建设的艺术: 如何通过高接触服务(High-touch)建立邪教般的粉丝忠诚度?比如给用户送上他们收藏已久却买不起的那件单品。 * 红杉的投资视角: 速度至上: 创业就像翻牌游戏,唯一能控制的就是翻牌的速度(迭代速度)。 故事即生产力: 创始人必须像“邪教领袖”一样,用非理性的梦想吸引人才和资本。 * AI 消费应用的未来: 反驳“媒体已死”的观点,看好 AI 驱动的娱乐内容。她预测 AI 生成的微短剧(如“哈利波特版宿醉”)将演变成巨大的新媒体平台,创造出新一代的创作者阶层。 * 团队组建哲学: 寻找“有尖刺”(Spiky)的人才。不需要全能型选手,而是将一个极具创意但混乱的 PM 与一个极度有条理的设计师配对,通过互补实现卓越。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=AmHNJbFlltk 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

39分钟
88
2周前

EP127:Anthropic产品经理揭秘Opus 4.5背后的故事

播客无国界

在 AI 模型的性能不断飞跃的今天,我们如何才能从根本上理解和应用这些进步?Anthropic 的首位产品经理 Diane 深入探讨了他们的最新旗舰模型 Opus 4.5 背后的产品哲学、研究方法论,以及他们对未来 AI 智能形态的思考。 本期节目将带您了解: * 模型进化论: Anthropic 如何以长期路线图为指导,平衡用户需求(如 Excel、PowerPoint)与前瞻能力(如 Computer Use)进行模型迭代。 * 成本与效率: 深入理解 Opus 4.5 不仅性能卓越,而且效率更高、成本更低的原因,以及为什么每 Token 价格并非衡量 LLM 成本的唯一标准。 * Agent 的未来: 探讨从受限环境到开放式任务的 **Long-Running Agents(长期运行智能体)**如何成为下一个主要的产品形态,以及 Anthropic 如何用 Vision 和 Tool Use 推动这一进程。 * Scaffolding 的演变: 揭示开发者围绕模型构建的“脚手架”(Scaffolds)正从早期的“训练轮”演变为**“智能增强器”**,以及如何以更轻量、更通用的工具最大化模型的自主性。 * Anthropic 的秘密武器: 为什么 Anthropic 认为模型对齐(Alignment)和安全性不仅是约束,反而是提升智能质量和商业价值的竞争优势? 这期对话对于任何想要了解 AI 模型背后的决策过程、模型迭代的行业趋势,以及如何构建下一代 AI 应用的开发者和产品经理来说,都极具启发意义。 时点内容 | Key Topics Opus 4.5 的研发与产品哲学 * 长期路线图驱动: 模型的迭代是围绕长期能力蓝图(如指令遵循、编码、记忆)进行的,Claude 的每一次迭代都是实现这些能力的“载体”。 * 平衡需求与想象: 研发方向来自现有用户痛点(如金融服务客户对 Excel/PowerPoint 的需求),但也需要产品经理“想象”出用户尚未意识到的 AI 潜力(如 Computer Use)。 * 模型迭代的“产品文档”: Anthropic 的模型研发流程与传统产品管理类似,从愿景文档开始,定义 "So What"(为什么用户需要它),再转化为可量化的评估标准。 * 早期惊喜: Opus 4.5 的多项能力,特别是更复杂的 Agent 编码任务、更长运行时间和迭代改进方面,已达到一个明显的拐点。 * 视觉能力增强: 视觉能力的提升(如 Claude for Chrome 浏览器扩展)与其他功能协同作用,显著提高了 Computer Use 的交互质量。 效率、成本与市场教育 * 更高的效率和更低的成本: 从 Opus 4.5 开始,Anthropic 实现了显著的效率提升,并将其传递给用户,使得 Opus 模型价格更加亲民。 * “Effort Parameter”被低估: Diane 认为 Effort 参数(可调整推理难度)被低估,它能让用户以更低的成本获得 Opus 4.5 级别的智能。 * Token 成本迷思: 开发者应关注完成一项任务的端到端成本,而非仅仅关注每 Token 的价格。小模型可能因为效率低下,反而消耗更多 Token 才能完成任务。 Agent 与未来产品形态 * Agents 迈向终局: Computer Use(计算机使用能力)已从早期的“实验性功能”演变为可独立运行的端到端 Agent。 * Agent Product-Market-Fit(PMF): Agent 编码是目前 PMF 最强的领域。 * 下一代 Agent: 未来将是主动式、长期运行的智能体,例如 Agent 不仅编写代码,还能维护和重构代码;替你监控和维护任务;或者充当投资者/个人助手进行长期跟踪和周期性决策。 * Scaffolding 的演变: 早期“脚手架”是用来“约束”模型行为的(如“20 条规则”);现在则应是“智能增强器”,通过提供通用工具集和多 Agent 编排来最大化模型的自主性。 公司文化与安全即优势 * Anthropic 文化: 高度人才密集,极度真实,团队成员对使命有着深刻的激进式主人翁意识。 * 关键决策: 拒绝跟随潮流(如在 2023 年坚持专注于 Agentic Coding 而非 Embedding Model),大胆推出 Computer Use Beta 以在真实场景中快速发现问题。 * 安全性的真正价值: 安全和模型对齐不仅仅是为了“限制 AI”,更是为了“提升智能质量”。一个对齐良好的模型不会一味附和用户的想法(对抗“谄媚”),而是能作为独立的思考者,提出新的、颠覆性的替代方案。 给开发者的建议 * 持续原型化: 保持雄心勃勃的原型库,不断用新模型测试过去“失败”的想法。能力是需要被发现的。 * Model Taste(模型品味): 经常亲手使用模型,培养对模型能力和局限性的直觉,知道如何正确地推动或构建脚手架来最大化其效用。 * 拥抱变化: 当新一代模型发布时,不要害怕重构产品体验以匹配新的智能能力。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=V5gTVTCtC6Y 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

41分钟
84
2周前

EP126:思维链提出者揭秘“验证者定律”与AI的未来

播客无国界

在 AI 发展日新月异的当下,关于 AGI(通用人工智能)何时到来的争论从未停止。有人认为还需要数年,有人则认为奇点已至。本期节目,我们带来了 Chain of Thought(思维链)提示技术的普及者、OpenAI o1 模型及 Deep Research 的共同创造者、现任 Meta 超级智能实验室研究员 Jason Wei 在斯坦福 AI 俱乐部的最新演讲。 Jason 并没有给出一个简单的“是”或“否”,而是提出了三个简洁而深刻的思维框架,帮助我们驾驭接下来的 AI 浪潮。这期内容不仅解释了为什么“智能”的价格将趋近于零,还通过“验证者定律”揭示了 AI 解决难题的底层逻辑,并用“智能的参差边缘”打破了关于 AI 快速起飞的单一叙事。无论你是 AI 研究者、开发者还是对未来感到迷茫的普通人,这套分析框架都能帮你更理性地判断 AI 在不同领域落地的真实速度和潜力。 时点内容 | Key Topics * 智能商品化 (Intelligence as a Commodity): 随着自适应计算(Adaptive Compute)和推理时计算(Test-time Compute)的引入,即使不单纯扩大模型规模,获取智能的成本也将持续趋近于零。 * 知识获取的瞬间化: 从去图书馆查阅资料,到互联网搜索,再到 AI Agent 时代,获取公共信息的阻力将完全消失,这意味着基于信息差的壁垒将被打破。 * 验证者定律 (Verifier's Law): 生成很难,但验证往往很容易(如数独、代码)。Jason 提出,AI 解决任务的能力与该任务的“可验证性”成正比。凡是容易验证的任务(具备客观真理、快速反馈、低噪音等特征),最终都会被 AI 攻克。 * 利用不对称性训练 AI: DeepMind 的 AlphaEvolve 等案例展示了如何利用“生成-验证”的不对称性,通过大量计算和自我博弈来提升 AI 性能。 * 智能的参差边缘 (The Jagged Edge of Intelligence): 反驳“快速起飞”理论。AI 不会一夜之间在所有领域超越人类,而是在不同任务上表现出参差不齐的进步速度。 * AI 进步的三大启发式法则: 数字化任务、人类容易做但数据量大的任务、以及拥有丰富数据的领域,AI 将发展最快。 * 未来预测图谱: Jason 对不同领域被 AI 攻克时间的预测——从翻译、编程(已攻克)到 AI 研究(2027)、电影制作(2029),再到几乎不可能被替代的管道维修和情感陪伴。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=b6Doq2fz81U 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

26分钟
70
2周前

EP124:OpenAI 开发者平台工程主管专访-从通用模型到精细化微调

播客无国界

在 AI 领域,从“One Model Rules All”的 AGI 愿景,到如今各种垂直模型、微调技术和开源生态百花齐放,行业共识正在发生巨大转变。本期节目,a16z 的 Martin Casado 深度对话 OpenAI 开发者平台工程主管 Sherman Wu。 他们探讨了 OpenAI 如何在作为垂直应用(ChatGPT)和水平平台(API)之间取得平衡,以及为什么“微调”(Fine-tuning)和“强化微调”(Reinforcement Fine-tuning)正在成为企业挖掘数据价值的关键。Sherman 还分享了他从 Quora、Opendoor 到 OpenAI 的独特职业路径,以及对开源模型、Agentic AI 和未来编程范式的深刻见解。 您将了解到: * OpenAI 的双重身份: 既是拥有 8 亿周活用户的超级应用开发者,又是为数百万开发者提供 API 的基础设施提供商,这种内部张力如何化解? * 微调的崛起: 为什么企业不再满足于通用模型?强化微调(RFT)如何让企业利用私有数据训练出超越通用模型的垂直领域专家? * 开源与闭源的博弈: OpenAI 为何开始拥抱开源?开源模型对 API 业务不仅没有蚕食,反而促进了生态繁荣? * Agent 的形态: 从自由探索的 Coding Agent 到受 SOP 严格约束的客服 Agent,未来的 AI 智能体将呈现怎样的多样性? * 编程的未来: 为什么 Sherman 认为未来的应用不仅不会屏蔽底层模型,反而会更直接地将模型能力暴露给用户? 时点内容 | Key Topics: * OpenAI 的平台愿景: API 与 ChatGPT 并行,不仅是产品,更是将 AI 惠及大众的两种不同路径。 * 从 Opendoor 到 OpenAI: Sherman 分享他在 Opendoor 定价团队的经历,以及这段经历如何影响他对 AI 平台建设的理解。 * 微调(Fine-tuning)的新范式: 传统的监督微调(SFT)只能改变语气,而强化微调(RFT)能让模型在特定任务上达到 SOTA 水平。 * 模型多样化: 行业共识从“一个模型统治所有”转变为“多模型共存”,不同模型(如 o1, gpt-4o)服务于不同场景(如深度推理 vs. 快速响应)。 * 开源模型的影响: OpenAI 发布开源模型并非反商业,而是为了做大生态,推理服务的复杂性是其护城河。 * Agent Builder 与低代码: 尽管有人质疑低代码工具的灵活性,但对于受监管行业和标准化流程(SOP),确定性的 Agent 构建工具至关重要。 * 提示工程(Prompt Engineering)的演变: 从早期的“模型会自动理解”到现在的“上下文工程”(Context Engineering),开发者需要更精细地管理输入。 * AI 原生应用的交互: 为什么未来的应用很难像传统软件那样完全封装 AI?用户与模型的直接互动(如 Cursor)或许是不可逆转的趋势。 * 定价模式的思考: 从按 Token 收费到按结果收费(Outcome-based pricing),AI 商业模式的探索仍在继续。 相关链接与资源: [视频来源]www.youtube.com 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

59分钟
47
3周前

EP123:AI 智能体为何总是“失忆”?打造智能体记忆系统的终极指南

播客无国界

为什么 95% 的企业 AI 项目仍停留在 POC 阶段,无法产生实际价值?本期节目基于 AWS re:Invent 2025 的精彩演讲,深入剖析了制约 AI 智能体(Agent)落地的核心瓶颈——记忆缺失。 如果您的 AI 智能体总是忘记用户目标、无法处理多轮对话,或者在长任务中表现崩溃,那么本期内容正是为您准备的。我们不仅指出了问题,更提供了一套完整的解决方案:从**上下文工程(Context Engineering)到记忆工程(Memory Engineering)**的系统性方法论。 您将了解到: * 上下文不是记忆: 为什么单纯扩大 LLM 的 Context Window(上下文窗口)无法解决遗忘问题? * 记忆的三种形态: 短期记忆、长期记忆和共享记忆分别解决了什么问题? * 记忆生命周期: 如何构建一个包含输入、转换、存储、索引和检索的完整记忆闭环? * 实战架构: 如何利用 MongoDB Atlas 和 Voyage AI 构建高效的向量检索和语义缓存系统,让智能体真正具备“大脑”。 无论您是 AI 开发者、架构师,还是关注 AI 落地的企业决策者,这期节目都将为您提供构建可靠、智能且具备持续学习能力的 Agent 的关键蓝图。 时点内容 | Key Topics * AI 落地的残酷现状:MIT 报告显示 95% 的企业未从 AI 中获益,只有 5% 的成功者掌握了关键——不仅是模型质量,更是智能体工作流的设计,核心在于记忆管理。 * LLM 的三大局限:参数记忆不可更新、上下文窗口短暂且易逝、缺乏跨会话的持久状态。 * 更大的模型不是万能药:揭示“100万 Token 上下文窗口”的真相——有效利用率仅为 20%-30%,且长上下文会导致检索精度下降(Lost in the Middle)。 * 上下文工程 vs. 记忆工程: 上下文工程:关注此时此刻(In-context),解决“让模型看到什么”的问题。 记忆工程:关注持久化(Persistence),解决“让模型记住什么”的问题。 * Agent 的解剖学:认知(LLM)、行动(Tools)、感知(Inputs)和**记忆(Memory)**四大支柱。 * 三种应用模式与记忆需求: 助手模式(Assistant Mode):需要对话连续性,依赖语义缓存和情景记忆。 工作流模式(Workflow Mode):需要步骤一致性,依赖程序性记忆和状态日志。 深度研究模式(Deep Research Mode):需要多智能体协作,依赖共享记忆(Shared Memory)。 * 提升检索质量的技巧: 查询增强(Query Augmentation):重写、扩展和分解查询。 分块与元数据:合理的 Chunking 和丰富的 Metadata 是精准检索的基础。 Voyage Context 3:利用上下文感知模型提升长文档检索效果。 * 记忆系统的四大杀手:漂移(Drift)、过载(Overload)、碎片化(Fragmentation)和污染(Contamination)。 * MongoDB + Voyage 的解决方案:如何利用 MongoDB 的灵活文档模型、原生向量搜索,结合 Voyage 的高质量 Embedding 和 Reranking 模型,构建一体化的 AI 记忆引擎。 * 核心结论:只有具备可靠记忆系统的 Agent,才能成为可靠的智能体。记忆工程已成为 AI 开发的必修课。 相关链接与资源: [视频来源]www.youtube.com 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

51分钟
99+
3周前

EP122:OpenAI 官方教你如何解决 LLM 的遗忘问题

播客无国界

在构建 AI 智能体(Agent)时,开发者常常面临一个核心瓶颈:Context Window(上下文窗口)是有限的。随着对话轮次的增加,早期的关键信息往往被挤出,导致 Agent 变得“健忘”,不得不反复询问用户已经提供过的信息。如何打破这一限制,让 Agent 拥有类似人类的短期和长期记忆? 本期节目,我们将深入解读 OpenAI 解决方案架构师带来的 Agent Memory Patterns(智能体记忆模式)。这不仅是一次技术分享,更是一套关于**上下文工程(Context Engineering)**的系统性方法论。您将了解到: * 上下文工程的核心理念: 为什么说它是 AI 开发中的“艺术与科学”?如何通过重塑(Reshape)、隔离(Isolate)和提取(Extract)三大策略,最大化有限 Token 的价值。 * 四大失效模式: 深入剖析 Context Burst(上下文爆发)、Context Conflict(上下文冲突)、Context Poisoning(上下文中毒)和 Context Noise(上下文噪音),教你如何避开这些常见的开发陷阱。 * 实战技术全解析: 修剪(Trimming)与压缩(Compaction): 如何在不丢失关键信息的前提下,优雅地丢弃旧对话和冗余的工具调用结果? 摘要(Summarization): 如何利用结构化 Prompt 生成高质量的“黄金摘要”,并将其作为记忆注入回上下文? 长期记忆与跨会话状态: 演示如何通过持久化存储和检索,让 Agent 在不同会话间记住用户的偏好(如“我喜欢靠窗座位”或“我有台 2014 年的 MacBook”)。 * OpenAI Agents SDK 实操: 即使你是初学者,也能通过具体的代码示例(基于 OpenAI Agents SDK),看到从简单的 IT 支持机器人进化为拥有长期记忆的智能助手的全过程。 无论您是正在构建客户服务 Agent、个人助理,还是复杂的企业级智能体应用,本期内容都将为您提供从理论到代码的可落地指南,助您打造更智能、更连贯的用户体验。 时点内容 | Key Topics: * 上下文工程(Context Engineering)概览: 定义及其重要性,它超越了简单的 Prompt Engineering,包含了 RAG、状态管理、记忆等多个维度。 * Agent 记忆的核心挑战: 有限的上下文窗口 vs. 无限增长的对话历史。 * Before & After 对比: 有无记忆机制的 Agent 在处理长对话时的表现差异(如是否需要重复询问用户设备型号)。 * 四大失效模式详解: Context Burst(上下文爆发): 某个工具返回大量数据(如 3000 tokens 的退款政策),瞬间挤占上下文。 Context Conflict(上下文冲突): 不同工具或系统提示给出相互矛盾的信息。 Context Poisoning(上下文中毒): 错误信息进入上下文并随对话传播。 Context Noise(上下文噪音): 过多无用信息干扰模型判断。 * 技术方案一:Reshape & Fit(重塑与适应): Trimming(修剪): 保留最近 N 轮对话,简单高效但可能丢失信息。 Compaction(压缩): 仅移除旧的工具调用结果,保留对话逻辑。 Summarization(摘要): 将旧对话压缩为结构化摘要(Memory Object),作为新的一轮对话输入。 * 技术方案二:Isolate & Route(隔离与路由): 将任务分发给不同的子智能体(Sub-agents),每个子智能体维护独立的上下文,减少干扰。 * 技术方案三:Extract & Retrieve(提取与检索): Short-term vs. Long-term Memory: 会话内记忆 vs. 跨会话记忆。 Memory as a Tool: 使用专门的工具将关键信息(如用户偏好、设备信息)提取并存储到数据库或向量库中,在需要时检索注入。 * 实战 Demo 演示: 展示基于 IT 支持场景的 Dual Agent Demo。 演示 Trimming、Compaction 和 Summarization 的实时效果和 Token 变化。 演示跨会话记忆(Cross-session Memory):Agent 在新会话中依然记得用户的 MacBook 型号和购买地。 * 最佳实践与 Q&A: 如何评估记忆系统的效果?(对比有无记忆的 Evals、建立记忆专项 Evals)。 如何处理记忆的更新与遗忘?(时间戳标签、权重衰减)。 大规模用户场景下的记忆扩展性问题。 相关链接与资源: [视频来源]https://www.youtube.com/watch?v=WsGVXiWzTpI 本播客采用虚拟主持人进行播客翻译的音频制作,因此有可能会有一些地方听起来比较奇怪。如想了解更多信息,请关注微信公众号“心流赫兹”获取AI最新资讯。

48分钟
58
3周前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧