📝 本期播客简介 本期Huberman Lab播客,Andrew Huberman教授将带我们深入探索冥想的科学原理和实践方法。我们将了解冥想如何从根本上改变我们的大脑和身体,以及这些改变如何影响生活的方方面面,包括睡眠、情绪和专注力。Andrew会剖析冥想背后的神经生物学机制,介绍大脑中与内外感知、心智漫游相关的关键区域。更重要的是,他将提供一套实用的框架,帮助你根据自身的需求和状态,定制最适合自己的冥想练习,无论是为了提升专注、改善情绪,还是为了更好的睡眠。本期节目不仅是一堂理论课,更是一份个性化的冥想实践指南。 本期克隆自:How Meditation Works & Science-Based Effective Meditations 👨⚕️ 本期嘉宾 Andrew Huberman,斯坦福医学院神经生物学和眼科学教授,Huberman Lab播客主持人。 ⏱️ 时间戳 00:00 冥想入门与科学视角 00:00 冥想的定义与益处 00:38 冥想的多种形式与目标 01:24 冥想如何改变我们的存在方式 02:34 冥想的演变与科学之路 02:34 个人经历与早期研究 03:37 冥想与迷幻药的历史交织 04:50 冥想的广泛接受与商业化 11:55 冥想的神经科学基础 11:55 大脑核心区域:前额叶皮层、前扣带皮层、脑岛 20:09 人类思维的复杂性:过去、现在、未来 21:19 正念的定义与核心 22:11 内在与外在感知(内感受与外感受) 22:11 通用冥想形式的神经生理转变 29:06 内感受与外感受的连续谱 31:44 高低内感受意识的利弊 36:45 评估你的内外感受偏向 38:09 心智漫游与默认模式网络 38:09 默认模式网络(DMN)的定义 39:53 《走神的大脑是不快乐的大脑》研究 44:59 活在当下的重要性 46:00 冥想实践:方法与策略 46:00 冥想与当下幸福感 47:12 对抗默认状态的冥想策略 50:53 神经可塑性与冥想效果 52:57 冥想中的“重新聚焦” 01:00:43 冥想时长与坚持的重要性 01:01:47 推荐工具:Sam Harris的Waking Up应用 01:03:24 “眉心轮”与前额叶皮层 01:03:24 眉心轮与松果体的误解 01:07:36 大脑没有感觉神经元 01:08:10 冥想中专注于大脑:思想、情绪和记忆的涌现 01:13:12 呼吸模式与意识状态 01:13:12 冥想中的呼吸模式 01:21:59 冥想时如何呼吸:放松或警觉 01:27:07 呼吸功本身就是一种冥想 01:28:16 呼吸练习与内感受敏锐度 01:29:10 内感受与解离的连续谱 01:29:10 冥想的第三个组成部分:内感受与解离 01:33:35 内感受与解离的健康平衡点 01:36:39 心理健康模型:V形、U形与凸形 01:45:54 冥想对情绪的积极影响 01:49:21 冥想、睡眠与恢复 01:49:21 冥想能否替代睡眠? 01:54:42 瑜伽休息术(Yoga Nidra)与非睡眠深度休息(NSDR) 01:57:31 NSDR/瑜伽休息术与睡眠改善 01:58:40 冥想与NSDR/瑜伽休息术的对比 02:02:17 时空桥接冥想(STB) 02:02:17 STB冥想的独特之处 02:05:23 STB冥想的实践步骤 02:08:45 STB冥想的益处:意识引导与灵活性 02:13:02 总结与展望 02:13:02 冥想的更多维度 02:13:33 未来播客预告 🌟 精彩内容 💡 **冥想的个性化定制:对抗你的默认状态** Andrew Huberman教授指出,冥想并非一刀切。关键在于评估你当前的“内外感受偏向”(是更关注身体内部感觉,还是更关注外部环境),然后选择一种“对抗”你默认状态的冥想练习。例如,如果你思绪万千,过度“在脑子里”,就应选择专注于外部事物的冥想;如果你容易被外部干扰,则应选择专注于内在的冥想。这种“不适”正是神经可塑性发生、大脑回路改变的关键。 🧠 **心智漫游是不快乐的根源** 引用《科学》杂志的经典研究“A Wandering Mind Is an Unhappy Mind”,Andrew强调,无论在做什么,思绪游走都与不快乐相关,即使是快乐的想法也如此。冥想的核心目标之一,就是帮助我们锚定当下,减少心智漫游,从而提升幸福感。冥想并非要完全停止思考,而是训练我们更快地“重新聚焦”的能力。 😴 **冥想与睡眠:NSDR/瑜伽休息术的独特作用** 传统专注型冥想(如眉心轮冥想)虽然能提升专注力和情绪,但若临睡前进行,可能反而影响入睡。对于改善睡眠和补充精力,Andrew强烈推荐“非睡眠深度休息”(NSDR)或“瑜伽休息术”(Yoga Nidra)。这些是反专注的练习,通过身体扫描和放松来降低皮质醇、补充神经递质,已被证明能显著改善失眠,甚至可能减少所需的总睡眠量。 🌉 **时空桥接冥想(STB):灵活驾驭意识** Andrew介绍了一种独特的“时空桥接冥想”,它结合了内外感受、呼吸和视觉对时间感知的调节。通过逐步将注意力从内在(眉心轮/呼吸)转移到近处(手掌),再到远处(地平线),直至宇宙宏观尺度,最后回归内在,这种练习旨在训练我们有意识地在内外感知和时间维度之间灵活切换,从而在日常生活中更好地动态调整注意力,应对各种情境。 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期节目,我们克隆了 Gavin Baker - Nvidia v. Google, Scaling Laws, and the Economics of AI - [Invest Like the Best, EP.451] 邀请到 Patrick 的老朋友、硅谷顶尖投资人 Gavin Baker。Gavin 以其对市场、科技前沿的深刻洞察和极富感染力的表达而闻名。在本期节目中,他将带领我们深入探讨AI领域的最新进展和未来趋势。从谷歌 Gemini 3 的发布,到英伟达 Blackwell 芯片的复杂挑战,再到AI扩展定律的演变,Gavin 将揭示AI基础设施背后的激烈竞争和经济逻辑。我们还将探讨AI如何从“更智能”走向“更有用”,以及它对企业生产力、客户支持和销售的颠覆性影响。Gavin 更会分享他关于太空数据中心这一“疯狂”想法的独特见解,以及SaaS公司在AI时代面临的生存挑战。最后,他还首次分享了自己投身投资行业的传奇起源故事。 👨⚕️ 本期嘉宾 Gavin Baker,硅谷顶尖投资人,以其对市场、科技前沿的深刻洞察和极富感染力的表达而闻名。 ⏱️ 时间戳 AI前沿洞察与方法论 01:55 Gavin如何分析AI新进展:亲身体验与专家追踪 05:23 AI扩展定律的演变:从预训练到后训练的新范式 芯片大战:谷歌 vs. 英伟达 08:07 AI发展核心:谷歌TPU与英伟达GPU的竞争 09:57 Blackwell芯片的复杂挑战与延迟影响 11:15 谷歌作为低成本token生产商的战略考量 15:51 TPU与GPU的技术路线差异及ASIC自研困境 AI的未来与应用场景 21:24 AI的“有用性”:从智能到解决实际问题 23:36 “可验证即自动化”:AI如何赋能企业职能 28:19 边缘AI:最具威胁的看空理由 33:15 AI投资回报率:创业公司与财富500强的差异 39:36 前沿实验室的动态:Meta、Anthropic与xAI的博弈 颠覆性技术与宏大愿景 51:17 太空数据中心:能源、冷却与网络连接的终极解决方案 56:24 AI算力供需:短缺、过剩与调控阀 01:00:05 电力:AI时代的新瓶颈与解决方案 行业变革与投资机遇 01:04:45 半导体VC的崛起:老兵新传与生态系统加速 01:08:59 SaaS公司的AI困境:毛利率与生存之战 01:13:20 滚动泡沫:核能、量子与AI的“科技元素圈” Gavin的投资生涯起源 01:17:19 投资的本质:对真理的追寻与个人成长故事 🌟 精彩内容 💡 AI分析方法与扩展定律新范式 Gavin强调了亲身体验付费版AI模型、关注顶级专家(如Andre Karpathy)和实验室领导人言论的重要性。他指出,Gemini 3再次验证了预训练扩展定律,但更重要的是,RL与验证奖励以及测试时计算这两条新的后训练扩展定律,正在推动AI的巨大进步。 “你必须得花钱用最高级的版本……那些版本才像一个完全成熟的三十、三十五岁的成年人。” “对于软件,任何你能明确定义的东西,都能自动化;而对于 A I,任何你能验证的东西,都能自动化。” ⚔️ 谷歌与英伟达的芯片竞赛 Gavin深入剖析了AI基础设施领域谷歌TPU与英伟达GPU的激烈竞争。他解释了英伟达Blackwell芯片在技术上的复杂性和部署挑战,以及谷歌作为低成本token生产商的战略优势。他预测,随着Blackwell和GB300的普及,AI领域的成本结构和竞争格局将发生深刻变化。 “要理解 A I 领域的一切,都离不开谷歌和英伟达之间的竞争。” “谷歌作为低成本生产商,一直在抽干 A I 生态系统的经济氧气,这对他们来说是极其理性的策略。” 🚀 AI的未来:从智能到“有用” Gavin认为,AI的发展正从追求“更智能”转向追求“更有用”。他指出,Blackwell等新芯片将大幅降低token成本,使AI模型能够“思考”更长时间,从而在客户支持、销售和个人助理等领域实现更广泛的应用。他强调,AI自动化任何“可验证”的任务,将带来巨大的生产力提升。 “我们需要从追求更智能转向追求更有用,除非更高的智能开始带来重大的科学突破。” “如果它能预订餐厅,那离预订酒店、机票,和帮我叫优步也就不远了。” 📉 SaaS公司的AI生存挑战 Gavin警告称,SaaS公司在AI时代正犯下与实体零售商在电商时代相同的错误。他们因不愿牺牲高毛利率而拒绝拥抱AI原生模式,这将使其面临被AI原生竞争对手颠覆的风险。他呼吁SaaS公司接受AI带来的低毛利率,利用其现有业务优势进行转型。 “SaaS公司正在犯与实体零售商在电子商务上犯的完全相同的错误。” “如果你试图维持百分之八十的毛利率结构,你就是在保证自己在 A I 领域不会成功。” 🌌 太空数据中心:终极愿景 Gavin提出了一个大胆的设想:未来数据中心将建在太空中。他从第一性原理出发,论证了太空数据中心在能源、冷却和网络速度方面的巨大优势,并将其与埃隆·马斯克的xAI、特斯拉和SpaceX的融合愿景联系起来,认为这将是AI算力的终极解决方案。 “但如果你从第一性原理思考,数据中心就应该在太空。” “在太空中,冷却是免费的。你只需要在卫星的阴暗面放一个散热器就行了。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期播客,我们克隆了伯克利的一期公开课 Bill Dally - Trends in Deep Learning Hardware 荣幸邀请到英伟达首席科学家兼研究高级副总裁、斯坦福大学客座教授Bill Dally。作为计算领域的泰斗,Bill Dally分享了他对深度学习硬件未来趋势的独到见解。他回顾了深度学习从算法萌芽到GPU引爆的历程,揭示了硬件性能提升的真正驱动力——从数值表示、复杂指令集到稀疏性利用,以及如何通过并行计算应对模型规模的爆炸式增长。Bill Dally还深入探讨了当前深度学习应用面临的挑战,如Agent模式、预填充与解码阶段的差异化需求、以及思维链推理对硬件提出的严苛要求。他展望了未来硬件设计方向,包括3D堆叠内存、优化的数值表示法、结构化稀疏性,并分享了他对通用加速器和超越CMOS技术范式的思考。 👨⚕️ 本期嘉宾 Bill Dally,英伟达首席科学家兼研究高级副总裁,斯坦福大学客座教授(曾任斯坦福计算机系主任)。他是美国国家工程院院士,电气电子工程师学会、计算机协会及美国艺术与科学学院会士,曾荣获伊丽莎白女王工程奖、本杰明·富兰克林奖等众多荣誉,在硬件和软件创新领域做出了卓越贡献。 ⏱️ 时间戳 00:00 开场 & 嘉宾介绍 深度学习的崛起与硬件的推动 00:51 深度学习的变革力量:ChatGPT的自我认知与量子化学AI系统Ente 02:34 深度学习成功的三要素:算法、数据与硬件 03:36 硬件的引爆点:GPU与深度学习的火箭式发展 04:08 模型计算量爆炸:从AlexNet到Transformer的千万倍增长 05:06 GPU的诞生:政府资助研究与CUDA的演变 GPU性能提升的秘密 06:29 GPU性能飞跃:过去十年推理性能每年翻倍 06:57 摩尔定律之外:架构与设计的五千倍提升 07:21 数值表示的巨大贡献:从FP32到FP4的32倍提升 08:37 复杂指令集:从点积到矩阵乘法的效率革命 10:54 工艺进步的有限贡献:28纳米到4纳米仅3倍能效提升 11:10 稀疏性与“作弊”:Blackwell的2倍稀疏度与芯片面积翻倍 11:46 模型优化:GoogleNet等算法带来的额外性能提升 12:12 Blackwell架构:工程奇迹与NVHBI互连 并行计算:突破性能瓶颈 12:57 多维度并行:数据并行、流水线并行与张量并行 14:59 通信技术:NVLink与InfiniBand构建大规模AI集群 16:30 英伟达数据中心:系统规模与计算性能的七万倍增长 软件栈:深度学习的另一半 16:51 软件的挑战:从cuDNN到Modulus、Clara等应用栈 18:36 软件壁垒:构建完整高效软件栈的难度 19:00 MLPerf基准测试:英伟达的领先地位与软件优化带来的性能提升 未来挑战与硬件设计方向 20:15 Agent模式的兴起:大语言模型与工具、记忆的结合 21:17 LLM运行的独特阶段:预填充(Prefill)与解码(Decode)的挑战 22:30 解码阶段的内存与延迟需求:每秒千级Token的挑战 23:20 思维链推理(Chain of Thought):多轮迭代对硬件的严苛要求 24:33 硬件设计师的应对:极高Token生成速率的需求 25:35 内存带宽与通信延迟:Blackwell面临的巨大挑战 26:37 新模型与注意力机制:混合专家模型与多头潜在注意力 27:50 能量消耗分析:数学计算、内存带宽与数据移动 28:55 3D堆叠内存:降低HBM内存能耗与提升带宽的潜力 30:12 数值表示的艺术:从整数到浮点、对数与码本 31:04 脉冲表示法的低效:CMOS电路中的能耗问题 31:58 比较数值表示法:成本与准确性的权衡 33:13 符号表与剪枝:优化权重表示以提高精度 34:28 对数表示法:乘法变加法与误差分布的优势 36:07 对数加法的挑战与延迟策略 37:37 数值表示优化:缩放与裁剪最小化误差 40:21 粒度优化:从层级到向量级的缩放与裁剪 41:09 稀疏性利用:结构化稀疏与Ampere架构 42:53 加速器原型:探索每瓦算力的极限 43:37 指令开销:CPU与GPU的巨大差异 44:13 内存访问成本:局部性与跨层级访问的能耗 45:14 异构加速器:为不同阶段优化计算与内存 46:31 Magnet加速器:每瓦百万亿次运算的里程碑 46:58 电压缩放:优化每瓦性能的巨大机会 48:04 通用加速器愿景:模块化设计应对多领域应用 总结与问答 49:30 深度学习的未来:提升人类体验与模型优化 50:12 当前挑战:分离式推理、思维链与新注意力机制 50:54 硬件的成就:GPU性能的惊人增长与优化细节 52:00 Q&A: 互连技术与NVLink的重要性 53:30 Q&A: 数学运算与通信能耗的界定 54:36 Q&A: AI功耗与人脑效率的对比 56:19 Q&A: 电压堆叠与CMOS工艺的兼容性 57:47 Q&A: 未来十年计算能力的预测 59:02 Q&A: 超越CMOS的脉冲计算范式 59:45 Q&A: 晶体管尺寸极限与工艺技术的未来 🌟 精彩内容 💡 **深度学习的引爆点** Bill Dally回顾了深度学习的算法和数据早在上世纪80年代和2005年左右就已存在,但直到GPU的出现,才真正引爆了这场革命。GPU提供了足够的计算能力,使得在合理时间内训练大型模型成为可能,推动了深度学习的火箭式发展。 “当时 ImageNet 的数据集大概是一百多万张图片,而这个‘合理的时间’,指的是两周。这就像是点燃油气混合物的那一点火花,真正引爆了深度学习的革命。” 🚀 **GPU性能提升的秘密** 在过去十年里,GPU的AI推理性能提升了五千倍,其中只有三倍来自工艺进步(摩尔定律)。Bill Dally揭示了其余提升的真正来源:数值表示(如从FP32到FP4带来了32倍提升)、复杂指令集(如矩阵乘法指令将开销降至极低)、以及稀疏性利用。 “这五千倍的提升里,只有三倍来自工艺进步。剩下的全都是靠更好的架构和巧妙的设计。” 🧠 **未来挑战:Agent模式与思维链** Bill Dally指出,当前深度学习应用正从单一模型运行转向复杂的Agent模式,它们拥有记忆、能使用工具,并进行多轮“思维链”推理。这导致了预填充(计算密集)和解码(内存与延迟密集)阶段的巨大差异化需求,对硬件的Token生成速率和通信延迟提出了前所未有的挑战。 “你既需要巨大的内存带宽…同时你还有延迟的要求。因为通常都会有用户层面的服务目标,比如你希望每个 token 的生成时间在一百毫秒左右。” 🛠️ **硬件设计方向:3D堆叠内存与数值表示** 为了应对未来的挑战,Bill Dally展望了硬件设计的新方向,包括通过3D堆叠内存将DRAM直接置于GPU上方,大幅降低内存访问能耗和提升带宽;以及优化数值表示法,如利用对数表示法和精细的缩放与裁剪策略,在低精度下实现更高精度。 “我们看到的一个长期方向是,把 D R A M 直接堆在 G P U 上面,并把计算局部化。这样我们就可以直接垂直向下读取 D R A M。” 💡 **通用加速器愿景** Bill Dally分享了他对未来加速器的个人愿景:构建一个拥有通用计算、内存系统和互连的基础平台,然后通过堆叠定制化的应用模块,为深度学习、生物信息学等多种应用提供特化支持,实现灵活性与效率的统一。 “你可以想象有一个基础层的 G P U,通过在上面堆叠不同的应用模块,来为多种应用进行特化。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了知名播客《Huberman Lab 播客》的一期深度对谈,主持人 Andrew Huberman 与世界闻名的舞蹈家和编舞家 Twyla Tharp 展开了一场充满火花的对话。Twyla Tharp 以其敏锐的洞察力和对创作过程的独特理解而闻名,她将与我们分享如何通过自律和身体智慧实现卓越。从她每天清晨五点开始的严苛健身习惯,到对“主心骨”创作理念的深刻阐释,再到对艺术价值、身体与心智关系的独到见解,Twyla Tharp 挑战了许多传统认知,强调了热爱、坚持和不断突破自我的重要性。这不仅是一场关于舞蹈的对话,更是一堂关于如何活出充实、有创造力人生的实践大师课。 克隆自:Master the Creative Process | Twyla Tharp 👨⚕️ 本期嘉宾 Twyla Tharp,世界闻名的舞蹈家和编舞家,以其敏锐的洞察力和对创作过程的独特理解而闻名。她的作品跨越舞台和电影,被誉为史上顶尖的创意艺术家之一。她著有《创作的习惯》一书,详细阐述了如何建立日程、习惯和流程以实现最佳创意表达。即使在八十四岁高龄,她依然保持着令人惊叹的身体力量和精神活力。 ⏱️ 时间戳 00:00 开场 & 播客简介 00:00 欢迎收听跨国串门计划 01:56 Twyla Tharp 的自律与创作观 02:47 Huberman Lab 播客介绍 Twyla Tharp 创作的基石:自律与“主心骨” 03:07 “主心骨”:创作的专注与聚焦 08:54 创作者的意图与观众 12:39 艺术家的成长与挑战:成功比失败更难以为继 14:13 创作过程中的私下失败与舞者选拔 22:55 艺术的价值与“美”的价位 32:47 Misha 与舞蹈的商品化:魅力与大众联结 35:51 品味与直觉:保护和提炼你的本能 身体的智慧与训练 41:14 古典芭蕾训练:身体控制的基础 53:45 创作的“主心骨”与习惯:从微小迹象开始构建 58:08 自律并非享受:源于童年农场与母亲的训练 01:02:31 非语言交流与心灵感应:从家庭翻译到社群共鸣 01:08:22 VR、拳击与力量:身体的极限与突破 01:12:42 把杆练习:身体智慧的进化 01:19:02 身体先于大脑:直觉与运动的本源 艺术与人生哲思 01:23:47 教育与高标准:培养自律与行为规范 01:27:53 评论与内在标准:爱与客观的平衡 01:35:51 社交媒体与即时反馈:污染核心动机的风险 01:41:19 为没有回报而工作:热爱过程的价值 01:46:16 卓越与长寿:接受身体衰退,保持无畏与分享 02:11:45 名字与自我认知:母亲的“明星之路”暗示 播客结束 02:12:41 Andrew Huberman 感谢 Twyla Tharp 02:14:19 播客信息补充与推广 🌟 精彩内容 💡 自律的真谛:不是享受,而是现实所需 Twyla Tharp 每天清晨五点开始健身两小时,并非因为热爱,而是将其视为为一天定下基调的工具。她直言:“如果你不想干活的时候就不干,那你真想干活的时候,也就干不成了。”这种严苛的自律源于她农场生活的童年经历和母亲的严格训练,让她深刻理解工作伦理和社群协作的重要性。 🧠 “主心骨”创作法:专注与直觉的融合 Tharp 强调,无论是写书、编舞还是做播客,创作者都必须找到作品的“主心骨”——一个核心的专注点。她以阿加莎·克里斯蒂的侦探小说为例,说明创作者如何围绕一个核心结论展开叙事,同时巧妙地引导观众。她还提出,创作的“意图”和“为什么做这件事”至关重要,这决定了创作的可能性,而直觉的保护和提炼是品味形成的关键。 💪 身体的智慧:超越大脑的本能 在讨论古典芭蕾训练时,Tharp 提出了一个引人深思的问题:“是身体已经明白了,大脑,我们只是在教育你?还是大脑在告诉身体该做什么?”她认为身体的直觉有时先于大脑,能够感知到如何通过更开放的旋转跳得更高。她强调运动是人类最基础的行动方式,并呼吁社会应更尊重舞蹈作为一种艺术形式。 🚀 成功比失败更难以为继:持续突破的艺术 Tharp 颠覆性地指出,成功比失败更难以为继。成功可能带来舒适区和固化,而真正的艺术家需要不断改变和突破。她以贝多芬为例,阐释了艺术家晚期作品的深刻性源于知识和经验的增长,以及不断挑战自我的勇气。她认为,一个有趣的艺术家是一个选择的制造者,而非仅仅为了迎合或得分。 ❤️ 热爱与卓越:内在驱动的力量 面对外部评论和压力,Tharp 强调创作者必须对作品怀有“非凡程度的爱”,因为作品是“你的孩子”。她认为,真正的卓越不是为了外部奖励,而是源于内在对“我能做得更多”的追求。她鼓励人们找到自己真正热爱并擅长的事情,并确保至少一半的时间花在其中,因为这种发自内心的热爱是应对人生马拉松、保持能量和创造力的关键。 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了:AI Engineer Podcast VoiceVision RAG - Integrating Visual Document Intelligence with Voice Response — Suman Debnath, AWS 本期播客中,AWS首席机器学习布道师Suman Debnath深入探讨了多模态检索增强生成(RAG)技术的最新进展,特别是针对传统RAG在处理图像密集型文档时面临的挑战。Suman详细介绍了Call Pal这一基于视觉的检索模型,它如何通过将文档页面视为图像、并利用图像分块和“延迟交互”机制来理解视觉上下文,从而实现更精准的检索。他不仅从理论层面解释了Call Pal的工作原理,包括其与视觉语言模型的关联,还通过一个详细的代码演示,展示了如何使用Call Pal与Quadrant向量数据库,并结合Strands Agent框架,构建一个能够进行视觉检索并以语音形式生成答案的智能应用。Suman强调,Call Pal并非要取代传统RAG,而是一种针对特定复杂视觉数据集的强大补充,为听众提供了关于何时以及如何有效利用这项前沿技术的实用指导。 👨⚕️ 本期嘉宾 Suman Debnath,AWS首席机器学习布道师。他专注于自然语言处理(NLP)、检索增强生成(RAG)和模型微调等领域,是多模态AI和Agent框架方面的专家。 ⏱️ 时间戳 00:00 开场 & 播客简介 视觉RAG与Agent框架概览 01:56 Suman开场:视觉检索与Agent框架的探索之旅 03:11 互动环节:了解听众背景与资源分享 05:07 GitHub仓库导览:基于视觉的Agent RAG实践 传统多模态RAG的挑战 06:14 多模态RAG的传统实现方法 06:18 方法一:实体分离与多模态Embedding 08:26 方法二:实体摘要与文本Embedding 09:24 方法三:摘要检索与原始数据生成 11:41 传统RAG的局限性:图像密集型文档的困境 Call Pal:基于视觉的检索模型 14:22 灵感来源:模仿人类阅读与理解 15:34 Call Pal模型概述:将页面视为图像并分块处理 16:18 Call Pal核心机制:Embedding与检索 16:53 视觉语言模型基础:对比学习与正向提示 20:32 Call Pal的Embedding过程:预处理与向量生成 22:59 延迟交互检索:查询与图像分块的相似度计算 代码实践:Call Pal与Agent工作流 25:50 演示环境搭建:模型、数据与Quadrant数据库 32:26 数据准备:PDF转图片及元数据处理 33:07 Embedding生成:Call Pal模型处理图片 34:10 语义搜索:基于查询检索相关页面 34:53 答案生成:结合多模态LLM输出结果 37:21 Strands Agent框架:轻量级Agent构建 38:05 Strands Agent简介:模型优先与工具集成 43:02 自定义检索工具:Call Pal与Agent的结合 45:16 增强Agent:加入语音输出功能 问答环节:应用与未来展望 49:26 生产环境应用与扩展性考量 52:59 Call Pal与传统RAG:选择与权衡 56:00 混合架构探索:Call Pal与传统RAG的结合 57:21 模型微调:Call Pal的优化潜力 🌟 精彩内容 💡 传统多模态RAG的局限与Call Pal的诞生 Suman Debnath深入剖析了当前多模态RAG在处理视觉信息(如扫描PDF、图像嵌入文本)时的不足,引出Call Pal这一创新模型。Call Pal通过将每个文档页面视为一张图片,并对其进行分块处理,从而更好地捕捉视觉上下文,解决了传统OCR技术难以应对的挑战。 “我只有在我的数据集非常奇特,并且作为人类,你都觉得我必须看着它才能读懂的情况下,我才会用这个方法。” 🛠️ Call Pal的“延迟交互”检索机制 Call Pal的核心在于其独特的“延迟交互”检索机制。它将文本查询的每个token与图像分块的embedding进行点积运算,并聚合最大相似度得分,以评估查询与整个页面的相关性。这种方法能够精准识别包含关键视觉信息的页面,而非仅仅匹配零散的文本片段。 “如果你想找个法子从公司换台新电脑,这就是那个单元格了。你可以试试。” (关于CPU运行Batch Size过大导致电脑崩溃的趣事) 🚀 Strands Agent:轻量级AI应用框架 Suman介绍了AWS开源的Strands Agent框架,一个模型优先、极其轻量级的Agent构建工具。通过简单的模型与工具组合,开发者可以快速创建智能应用,并轻松集成语音输出等功能。节目中演示了如何将Call Pal检索能力封装成自定义工具,并与Strands Agent结合,实现从视觉检索到语音回答的完整工作流。 “毕竟现在,没个 agent 简直没法聊技术了。” 🤔 何时选择Call Pal而非传统RAG Suman强调,Call Pal并非要取代传统RAG,而是一种针对特定场景的补充。他建议优先采用更高效、成本更低的传统RAG方法。只有当数据集高度依赖视觉上下文(例如宜家说明书、大量图片嵌入文本的文档),且人类需要“看着”才能理解时,才应考虑使用Call Pal。 “所以,我建议不要一开始就用这个方法,而是从传统技术开始,因为那更高效,成本也更低,而且也更轻量,因为在这里,我们为每一页都存储了大量的向量。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了:硅谷顶尖创投播客《Lenny's Podcast》The 100-person lab that became Anthropic and Google's secret weapon | Edwin Chen 节目邀请到 Surge AI 的创始人兼 CEO Edwin Chen。Edwin 曾是谷歌、Facebook 和推特的研究员,他创办的 Surge AI 在不到四年内实现了十亿美元营收,且完全是自有资金,为顶尖 AI 实验室提供数据支持。Edwin 的经历堪称硅谷传奇,他不仅以极小的团队创造了惊人的商业成就,更对 AI 的发展方向有着独到且深刻的见解。 在对话中,Edwin 犀利地指出当前 AI 发展中存在的误区,例如过度依赖不可靠的基准测试、为“AI 垃圾内容”优化模型、以及硅谷“闪电式扩张”和“追逐估值”的创业文化。他强调高质量数据和人类“品味”在 AI 训练中的核心作用,并分享了 Surge AI 如何通过强化学习环境等创新方法,帮助 AI 模型实现更接近人类的学习方式。 这不仅是一个关于创业成功的案例,更是一场关于 AI 哲学、价值观和未来方向的深度探讨,为所有关注 AI 发展和希望以不同方式创业的听众提供了宝贵的洞察。 👨⚕️ 本期嘉宾 Edwin Chen,Surge AI 的创始人兼 CEO。他是一位杰出的研究员和连续创业者,曾任职于谷歌、Facebook 和推特。他以不到百人的团队,在四年内将 Surge AI 从零做到十亿美元营收,且完全是自有资金,为全球领先的 AI 实验室提供数据支持。Edwin 对 AI 的未来发展、数据质量和创业理念有着深刻而独特的见解。 ⏱️ 时间戳 00:00 开场 & 播客简介 Surge AI 的崛起与独特理念 01:58 Surge AI 的惊人成就:四年十亿营收,自有资金 02:09 不玩硅谷那套:小而精团队,不融资,不炒作 05:06 AI 时代的公司形态:高人效比,专注产品与技术 06:53 刻意低调:靠产品口碑而非公关宣传 AI 模型的数据质量与“品味” 08:19 Surge AI 核心业务:教 AI 模型辨别好坏 08:35 定义“质量”:从机械标准到诺贝尔奖级诗歌的深度思考 10:17 如何衡量数据质量:千个信号,机器学习算法 11:37 Claude 成功的秘密:数据质量与实验室的“品味” AI 发展方向与基准测试的陷阱 15:56 基准测试的不可靠性:缺陷、误导性与“应试教育” 17:04 衡量真实进展:专家级人类评估的价值 18:08 人类在 AGI 发展中的核心作用 18:36 AGI 时间线预测:十年甚至几十年 19:16 AGI 发展方向的担忧:优化“AI 垃圾内容”,追逐多巴胺而非真理 22:03 Anthropic 的原则性:坚守价值观,不随波逐流 强化学习与 AI 模型学习新范式 26:42 AGI 需要新方法:模仿人类百万种学习方式 27:49 强化学习环境:模拟真实世界,揭示模型弱点 32:00 关注“轨迹”:过程比结果更重要 33:10 AI 训练方法的演进:SFT, RLHF, 评分标准到强化学习环境 Surge AI 的研究驱动与未来愿景 36:08 投资研究:前线部署与内部基准测试开发 37:57 研究实验室心态:推动前沿,而非追求估值 38:23 招聘需求:对数据、数学、语言、计算机科学交叉领域充满热情的人 创始人理念与硅谷创业反思 23:34 “硅谷机器”的弊端:转型、闪电扩张、追逐估值 24:01 Edwin 的创业建议:打造独一无二的产品,坚持使命 26:00 雄心与信念:成功的基石 Edwin 的个人背景与驱动力 42:30 独特背景:数学、语言与计算机科学的交叉 43:59 科学家本色:理解宇宙,亲手实践 46:18 Surge 的使命:塑造 AI 的未来,定义正确的“目标函数” AI 市场宏观趋势与被低估/高估的领域 38:59 模型差异化:公司价值观塑造 AI 个性 40:50 被低估的 AI 趋势:聊天机器人内置产品功能 41:22 被高估的 AI 趋势:“凭感觉编程”的维护性问题 闪电问答 51:31 推荐书籍:《你一生的故事》、《西西弗神话》、《Le Ton beau de Marot》 53:02 喜欢的影视:《穿越者》、《超时空接触》 53:33 喜欢的近期产品:Waymo 自动驾驶 54:04 人生格言:打造只有自己能打造的公司 55:28 “Soda”还是“Pop”:Soda 结尾与致谢 56:27 联系方式与招聘 56:51 听众如何帮助:博客话题建议,分享 AI 失败案例 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期节目深度访谈了全球最具影响力的创作者之一Jimmy Donaldson,即大家熟知的MrBeast,以及他公司的CEO Jeff Haal。MrBeast坐拥数十亿播放量,其商业触角从数字内容延伸到实体消费品和慈善事业,公司估值高达52亿美元。节目中,他们共同揭秘了MrBeast如何从一个痴迷于病毒式传播的少年,成长为内容巨星,并构建起一个庞大商业帝国的传奇故事。你将听到他如何破解注意力经济、打造普世内容、利用影响力行善,以及他对未来内容产业和商业模式的深刻洞察。 翻译克隆自:MrBeast on Cracking the Attention Economy 👨⚕️ 本期嘉宾 Jimmy Donaldson (MrBeast):YouTube巨星,全球拥有最多粉丝的创作者之一,其视频播放量达数十亿。他的商业版图包括YouTube频道、亚马逊Prime上的《Beast Games》、巧克力品牌Feastables等消费品,以及慈善事业。 Jeff Haal:Beast Industries的CEO,MrBeast商业帝国的核心管理者。 ⏱️ 时间戳 播客简介与MrBeast的崛起 00:00 播客介绍与MrBeast影响力概述 02:12 早期探索:少年MrBeast对病毒式传播的痴迷 03:12 母亲的看法:从不解到支持的转变 04:25 少年MrBeast的预言:十年前的视频展望未来 05:21 少年时期定时发布视频的趣事 内容创作与注意力经济 06:10 破解注意力经济:算法洞察与普世内容创作 07:41 注意力经济的挑战:内容长度与观众习惯 08:13 YouTube内容长度的变化:长视频趋势与商业化历程 09:06 碎片化名气:MrBeast的独特性与行业挑战 11:21 MrBeast的日常:高强度工作与300人团队 12:06 内容质量反思:回归故事核心,而非仅靠大场面 13:16 持续超越自我的挑战:内容细节打磨的重要性 商业帝国与社会影响力 14:31 多平台策略:YouTube的深度优势与其他平台的重要性 15:57 个人社交媒体使用:积极算法管理与内容消费 17:26 社交媒体对儿童的影响:正面利用与慈善实践 18:50 CEO Jeff Haal登场:52亿美元估值与MrBeast的合作 20:33 Beast Industries业务板块:媒体、消费品与创作者平台 22:05 收入结构与全球化战略:70%观众来自北美以外 23:02 品牌多元化:摆脱对MrBeast个人出镜的过度依赖 23:52 避免争议:利用影响力行善,而非制造话题 27:43 传统媒体合作:与亚马逊Prime合作《Beast Games》 30:12 “Beast Games”的投资价值:全球影响力与跨平台分发 31:28 “Beast Games”第一季的教训:参赛者管理与改进 33:03 Beast Industries的未来愿景:最具影响力的娱乐品牌 33:47 MrBeast的榜样:从Elon Musk和Steve Jobs汲取精华 34:36 与母亲的关系:从假装上大学到母亲加入团队 🌟 精彩内容 💡 破解注意力经济的秘密 MrBeast分享了他如何从少年时期就痴迷于研究病毒式传播,并最终理解了YouTube算法的本质——它是人类兴趣的镜子。他强调,要创作全球普世内容,就必须触及更本质的人性,例如通过“分手情侣手铐挑战”来引发共鸣。 “如果你想做一个印度人、美国人和南美洲人都能欣赏的内容,那它显然不能太有文化地域性…它需要触及更本质的人性。” 🚀 内容策略的演变与反思 MrBeast揭示了YouTube内容长度的趋势,在美国市场,长视频反而更受欢迎。他近期反思内容质量,强调要从单纯追求大场面和高奖金转向更深度的故事叙述,因为观众对金钱和大场面会麻木,但对好故事永远不会。 “我们每个视频都花几百万美元,搞各种大场面,但是我们已经火了六七年了,时间一长,你对发钱或者看大场面会有点麻木,但听一个好故事是永远不会麻木的。” 💰 52亿美元的商业帝国 CEO Jeff Haal详细介绍了Beast Industries的三大业务板块:媒体内容(YouTube、TikTok、亚马逊等)、消费品与服务(Feastables巧克力、玩具、金融服务等)以及即将推出的创作者平台。公司70%的观众来自北美以外,展现了强大的全球化能力。 “我们的使命是成为世界上最具影响力的娱乐品牌。” ❤️ 利用影响力行善 MrBeast坚持避免争议性话题,而是将巨大的影响力用于积极的社会事业。他以Feastables巧克力品牌为例,讲述了如何通过道德采购可可、支付公平工资来对抗童工问题,并计划通过视频曝光和建立学校来扩大积极影响。 “我宁愿把聚光灯用在这样的事情上,而不是去说那些老生常谈的话。” 📈 跨平台与长视频策略 MrBeast解释了为何与亚马逊Prime合作推出《Beast Games》这样的长篇系列节目。他认为YouTube适合短视频,而流媒体平台则能承载更宏大、更具情感投入的六小时节目,触达更广泛、更年长的观众群体。 “一个人花五秒钟看你的一个片段,和坐下来看你一个二十分钟的视频,听你说话,了解你,这之间有天壤之别。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期节目,我们克隆了The Pragmatic Engineer 他们邀请到了敏捷软件、软件架构和重构领域的权威 Martin Fowler。作为《敏捷宣言》的作者之一和畅销书《重构》的作者,Martin 将分享他职业生涯中对技术变革的深刻洞察。他认为,人工智能是软件开发史上最大的变革,其核心在于从确定性系统转向非确定性系统。我们将探讨AI如何重塑软件工程,包括“氛围感编程”的利弊、AI在理解遗留代码和原型开发中的应用,以及它对重构和敏捷实践的影响。Martin还将分享他对技术雷达的制作流程、模式在软件架构中的演变,以及在AI时代,初级工程师如何学习和成长。 翻译克隆自:How AI will change software engineering – with Martin Fowler 👨⚕️ 本期嘉宾 Martin Fowler,ThoughtWorks 首席科学家,敏捷软件、软件架构和重构领域的权威。他是2001年《敏捷宣言》的作者之一,也是畅销书《重构》的作者,并定期在他的博客上发表关于软件工程的文章。 ⏱️ 时间戳 00:00 开场 & 播客简介 00:06 AI:职业生涯中最大的变革,从确定性到非确定性 00:57 Martin Fowler 介绍 01:45 Martin Fowler 的职业生涯 01:58 早期经历:从电子工程到计算机编程 03:27 初入职场:在咨询公司接触面向对象 05:09 独立顾问与 ThoughtWorks 的缘分 07:26 “首席科学家”头衔的由来与职责 08:44 ThoughtWorks 技术雷达 09:19 技术雷达的起源与制作流程 10:58 雷达的运作方式与微服务案例 12:26 技术雷达对行业动态的洞察 14:11 AI 对软件工程的变革 14:11 AI 是最大的变革:与汇编到高级语言的转变类比 16:13 从确定性到非确定性的思维转变 17:16 抽象层次的提升与非确定性实现的挑战 18:39 通过严谨的语言与 AI 协作:Unmesh Joshi 的观点 19:50 广泛应用的非确定性工具:LLM 带来的新挑战 21:32 LLM 的新兴工作流:原型开发与“氛围感编程” 22:12 LLM 在理解遗留系统中的巨大成功 24:07 与 LLM 协作的挑战:低信任度与迭代审查 27:52 “氛围感编程”的弊端:缺失学习闭环 31:18 LLM 在探索不熟悉环境中的辅助作用 32:48 LLM 与 Stack Overflow 的对比:规模化复制粘贴的风险 34:37 不信任但要验证:LLM 输出的审查与测试 35:54 LLM 的“谎言”:不要盲目信任 37:43 规范驱动开发与领域语言 38:03 规范驱动开发与敏捷的循环迭代 39:08 构建领域语言:LLM 模糊思维与代码界限 40:12 紧密代表代码的语言:企业沟通的桥梁 41:21 企业级软件开发的复杂性:监管、遗留系统与历史包袱 42:52 风险容忍度的差异:创业公司与大型企业 46:12 重构与软件架构 46:24 《重构》一书的诞生与早期影响 49:16 “重构”概念的滥用与小步修改的精髓 50:04 《重构》第二版的更新与 JavaScript 示例 52:15 AI 时代重构的重要性:处理大量代码的质量 53:18 LLM 作为重构的起点与确定性工具的结合 55:29 软件架构模式的兴衰 56:23 模式作为交流词汇表的作用 57:56 模式的时尚周期与企业内部的行话 59:34 云计算对架构模式的影响:Grady Booch 的观点 01:02:23 大型企业系统现代化的漫长过程 01:04:15 敏捷宣言与 AI 时代 01:04:30 《敏捷宣言》的诞生故事 01:07:06 敏捷的成功:改变了与客户的合作方式 01:09:08 AI 时代敏捷的有效性:更短的增量与反馈循环 01:11:34 提高周期时间:敏捷在 AI 时代的核心杠杆 01:13:01 AI 时代的学习与成长 01:13:15 Martin Fowler 如何学习 AI:与作者协作与阅读 01:15:26 如何识别好的信息来源:缺乏确定性与细微差别 01:18:42 给初级软件工程师的建议:寻找导师与不信任但验证 AI 01:21:11 对科技行业的整体感受:机遇与挑战并存 01:22:36 AI 泡沫与零利率时代的结束:宏观经济影响 01:23:48 软件开发的核心技能:沟通与理解需求 01:25:56 快速问答 01:25:56 最喜欢的编程语言:Ruby 与 Smalltalk 01:26:22 书籍推荐:《思考,快与慢》与《权力掮客》 01:28:45 桌游推荐:《Concordia》 01:30:01 总结与展望 01:30:01 AI 带来的确定性到非确定性转变 01:30:44 “氛围感编程”的风险:停止学习与不理解软件 🌟 精彩内容 💡 AI:职业生涯中最大的变革 Martin Fowler 认为,人工智能是其职业生涯中遇到的最大变革,其影响堪比从汇编语言到高级语言的转变。这次变革的核心在于从确定性到非确定性的转变,这彻底改变了软件工程师的思维方式和工作环境。 “我认为,这是我职业生涯中遇到的最大变革。如果回顾整个软件开发史,能跟它相提并论的,可能就是从汇编语言到第一批高级语言的转变。这次变革最大的特点,是从确定性到非确定性的转变。突然之间,我们开始在一个非确定性的环境中工作,这彻底改变了一切。” 🛠️ “氛围感编程”:探索利器,维护噩梦 Martin Fowler 警示“氛围感编程”(vibe coding)虽能加速原型开发和一次性工具的创建,但若用于长期维护的产品则风险巨大。他强调,这种模式会跳过关键的学习闭环,导致开发者无法理解、微调和演进代码,最终可能面临“推倒重来”的困境。 “但如果你想做一个需要长期维护的产品,就千万别用它。当你用“氛围感编程”时,你其实跳过了一个非常重要的环节,那就是学习的闭环。” 🚀 LLM 在遗留代码理解中的突破 ThoughtWorks 的技术雷达将“使用生成式 AI 理解遗留代码”列入“采纳”环,表明这已是经过验证的成功应用。通过语义分析将代码信息填充到图数据库,再利用类似 RAG 的方式查询,LLM 能高效帮助开发者理解复杂、陈旧的系统,极大地提升了遗留系统现代化的效率。 “事实上,如果我没记错的话,我们已经把‘理解遗留系统’放进了技术雷达的‘采纳’环,因为我们认为,是的,如果你在处理任何遗留系统,你就应该用某种方式使用大语言模型来帮助你理解它。” 💻 AI 时代重构的重要性 随着 AI 生成大量代码,Martin Fowler 预见重构将变得更加重要。他强调,重构的核心在于将大的改变分解为小而可组合的步骤,以保持代码质量和可维护性。虽然 LLM 本身尚无法独立进行复杂重构,但结合其他确定性工具,它们可以作为重构的起点,帮助开发者更高效地管理和优化代码库。 “我不能说我已经看到了,但我完全可以预见它会变得越来越重要。因为,如果你要产出大量质量存疑但能用的代码,那么重构就是一种在保持其功能的同时,让它进入更好状态的方法。” 🎓 AI 时代的学习与成长 面对 AI 的普及,Martin Fowler 建议初级工程师务必使用 AI 工具,但要时刻保持警惕。他强调,找到一位优秀的导师至关重要,因为他们能提供宝贵的经验和指导。同时,要对 AI 的输出保持批判性思维,学会提问“你为什么给我这个建议?你的来源是什么?”以验证其可靠性,避免盲目信任。 “对于更初级的人来说,困难在于你没有那种感觉,就是你得到的输出在多大程度上是好的。在很多方面,答案和以前一样:找一些好的高级工程师来指导你,因为那是你学习这些东西的最好方式。一个好的、有经验的导师价值千金。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了全球产品管理和科技领域极具影响力的播客《Lenny's Podcast》的精彩对话,主持人Lenny Rachitsky与领英前首席产品官Tomer Cohen的深度访谈。Tomer Cohen在领英服务十四年,是硅谷产品领导力的杰出代表。本次对话聚焦领英颠覆性的“全栈构建者”产品开发模式,这一模式旨在应对到2030年70%工作技能将发生变化的挑战,并利用A I赋能个人将想法从概念推向市场。Tomer Cohen详细阐述了领英如何通过重构平台以适应A I、开发定制化A I Agent(如评估产品规格信任风险的“信任Agent”、优化增长策略的“增长Agent”以及分析用户痛点的“研究Agent”)来自动化繁琐任务,从而解放人类的愿景、共情、沟通、创造力和判断力。他还分享了文化转型在推广这种新模式中的关键作用,包括如何通过绩效评估和成功案例来激励员工拥抱“全栈思维”,并探讨了A I如何让顶尖人才变得更不可思议。这不仅是关于A I赋能的实践,更是对未来组织形态和个人职业发展的深刻思考,以及“成为”比“是”更重要的成长心态。 翻译克隆自:The end of product managers? Why LinkedIn is turning PMs into AI-powered “full stack builders” 👨⚕️ 本期嘉宾 Tomer Cohen,领英前首席产品官(CPO),在领英服务十四年,是硅谷产品领导力的杰出代表。 ⏱️ 时间戳 00:00 开场 & 播客简介 变革的必然性与“全栈构建者”模式的诞生 01:11 职场剧变:到2030年70%工作技能将发生变化 02:21 领英的“全栈构建者”计划:重塑产品开发模式 04:05 为什么需要变革:传统产品开发流程的复杂性与低效 05:01 回归第一性原理:重新定义“构建” 06:18 流程与组织复杂性:职能微观专业化的弊端 07:13 AI时代的机会:重新整合技术栈,回归工匠精神 “全栈构建者”的核心理念与实践 09:24 赋能构建者:端到端地将想法推向市场 10:04 人类核心能力:愿景、共情、沟通、创造力与判断力 11:12 组织形态变革:像“海豹突击队”一样的小分队模式 12:35 应对挑战:团队臃肿导致的效率下降 平台、工具与文化:AI转型的三大支柱 13:38 平台重构:为AI理解和操作核心平台做准备 15:18 定制化AI Agent:自动化繁琐任务 15:27 “信任Agent”:评估产品规格中的潜在风险 16:53 “增长Agent”:优化增长策略,评估想法质量 17:32 “研究Agent”:分析用户痛点,提供洞察 17:50 “分析师Agent”:查询领英海量数据,替代SQL查询 18:39 Agent构建:内部定制与跨Agent编排器的重要性 21:14 投资重点:从“想法到设计”与“代码到发布”的全面加速 22:41 数据清理与“黄金案例”:训练AI的关键 24:58 试点成果:每周节省数小时工作时间,洞察质量显著提升 26:17 试点策略:核心团队构建,小分队参与并提供反馈 27:59 新人才培养:APM项目转型为“助理产品构建者”计划 30:39 文化转型:工具之外的激励、项目与成功案例 31:54 绩效评估与“AI主动性”:驱动行为改变的关键 32:57 成功案例分享:跨职能转型与自下而上的变革 挑战、学习与未来展望 38:05 意外与教训:外部工具无法开箱即用,AI幻觉问题 39:14 专业化与“全栈构建者”:并非人人都要转型,但心态是关键 41:46 转型建议:平台、工具、文化三管齐下,保持耐心与透明度 43:39 不要等待:主动拥抱变革,成为未来构建方式的先行者 闪电问答 44:52 推荐书籍:《国家为什么会失败》、《超越百岁》、《无穷的开始》 47:02 推荐播客:希伯来语播客《一首歌》 47:43 梦想产品:车载AI助手,一键唤醒的无缝对话 49:35 人生座右铭:“成为”比“是”更好(成长心态) 50:12 告别领英:14年职业生涯的总结与对未来的展望 🌟 精彩内容 💡 职场未来:70%工作技能将改变 领英预测,到2030年,当前工作所需技能的70%将发生变化。这种前所未有的剧烈冲击,要求企业和个人必须重新思考“构建”的意义,并拥抱AI带来的变革,否则将难以保持竞争力。 “我们预测,到二零三零年,你现在这份工作所需要的技能,会有百分之七十发生变化。” 🛠️ “全栈构建者”模式:解放人类创造力 领英推出的“全栈构建者”模式,旨在赋能员工端到端地将想法推向市场。通过AI自动化繁琐任务,将人类的核心精力解放到愿景、共情、沟通、创造力和判断力上。这不仅提升效率,更重塑了组织形态,使其像“海豹突击队”一样敏捷。 “构建者的任务,就是把一个想法变成现实。这其实就是整个过程,对吧?” 🚀 定制化AI Agent:领英的秘密武器 领英投入巨资构建了一系列定制化AI Agent,如评估产品风险的“信任Agent”、优化增长策略的“增长Agent”、分析用户痛点的“研究Agent”以及查询海量数据的“分析师Agent”。这些Agent深度结合领英的独特数据和业务逻辑,实现了传统工具无法比拟的效率和质量提升。 “我们把所有这些专业知识、上下文和信息库都注入到这个 agent 中。因此,我们最终决定在领英内部自己构建这个信任 agent。” 📈 文化转型:驱动AI落地的关键 Tomer Cohen强调,仅仅提供AI工具是不够的。成功的AI转型需要深度的文化变革,包括调整招聘、绩效评估,通过成功案例激励员工,并鼓励“AI主动性和流利度”。这种变革管理,是让AI从少数先行者走向全员普及的关键。 “光给他们工具是不够的。你还得建立起激励机制、配套项目,激发他们的动力,并提供具体怎么做的示范案例。” 🌱 成长心态:“成为”比“是”更好 Tomer Cohen的人生座右铭“成为”比“是”更好,完美诠释了“全栈构建者”模式的核心精神。它强调持续进步、迭代和学习的过程,而非固守某个静态的身份或技能。这种成长心态是应对快速变化的AI时代,实现个人和组织成功的关键。 “我特别喜欢里面的一句话,就是‘成为’比‘是’更好(becoming is better than being),我觉得这和全栈构建者的模式有点关系,就是你永远处于进步模式、迭代模式。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了知名播客《Invest Like the Best》的深度对话,主持人Patrick O'Shaughnessy与Andreessen Horowitz(a16z)成长型投资业务的合伙人David George的精彩对谈。David George是Databricks、Figma和OpenAI等众多标志性公司的早期投资者,他将深入分享a16z如何构建其独特的成长投资帝国,包括其“洋基队”般的精英文化和无传统投委会的决策模式。他将详细阐述a16z在A I领域的投资布局,从基础模型到应用层,并将其与SaaS和移动互联网的转型相类比,预言这将诞生史上最伟大的公司。对话还将触及他的投资哲学,特别是对那些他称之为“技术终结者”的创始人类型情有独钟,以及为何他认为多数伟大科技市场最终都会是“赢家通吃”的局面。David还会区分“推力型”与“拉力型”业务的魔力,解释市场为何常低估持续增长的价值,并分享a16z在激烈竞争中如何通过长期关系和深刻洞察赢得投资机会。这不仅是一次投资策略的深度解析,更是对科技前沿和未来商业格局的洞察。 翻译克隆自:David George - Building a16z Growth, Investing Across the AI Stack, and Why Markets Misprice Growth - [Invest Like the Best, EP.450] 👨⚕️ 本期嘉宾 David George,Andreessen Horowitz(a16z)成长型投资业务的普通合伙人。他投资了许多这个时代的标志性公司,包括Databricks、Figma、Stripe、SpaceX、Anduril和OpenAI,现在正投资于新一代的人工智能初创公司,如Cursor、Harvey和Abridge。 ⏱️ 时间戳 00:00 开场 & 播客简介 04:11 洞察未来:AI时代的变革与机遇 04:11 展望未来三到五年:AI对世界的深远影响 04:57 消费级AI的演进:从聊天框到主动服务 05:55 消费级AI的变现潜力:未被挖掘的巨大价值 09:00 企业级AI的挑战与机会:商业模式的探索 11:02 技术红利流向:90%归于终端用户 12:02 投资“美国活力”:长期技术项目的耐心与洞察 12:02 机器人与自动驾驶:巨大市场与漫长周期 14:21 Waymo案例:从早期怀疑到重仓投资 17:13 David George的投资哲学:卓越公司与“技术终结者” 17:13 投资风格:公允价格投资卓越公司 18:12 创始人类型:我钟爱的“技术终结者” 21:15 投资教训:市场领导者才是赢家 23:02 AI模型市场:赢家通吃还是多方共赢? 25:56 风险投资的竞争格局与a16z的制胜之道 25:56 行业成熟与竞争加剧:私募市场的崛起 28:01 赢得项目:长期关系与独特洞察 29:52 Figma案例:如何赢得最顶尖的投资机会 33:43 David George的日常工作与a16z文化 33:43 效率管理:日程规划与深度思考 36:07 会议风格:直击核心,深度提问 37:08 职业选择:热爱学习与追求胜利 38:25 a16z文化:“洋基队”精神与高绩效期望 39:56 独特的投资决策流程:无投委会与单人拍板制 42:37 理想的投资环境与增长的价值 42:37 产品周期与资本周期:AI浪潮的起点 45:01 市场对增长的低估:模型难以捕捉的价值 47:22 “拉力型”与“推力型”业务:增长的魔力 47:22 “拉力型”业务:市场渴求的魔法 49:50 AI业务评估标准:获客、行为与毛利率 53:03 独特产品与分销渠道:PFMF的诞生 55:42 a16z组织结构的权衡:规模化与专业化 🌟 精彩内容 💡 **AI时代的未来图景:从被动响应到主动服务** David George预测,未来三到五年,AI将实现从被动响应到主动服务的巨大转变,具备长期记忆和多模态交互能力。他认为,尽管ChatGPT增长惊人,但目前的聊天框模式只是过渡,真正的经济价值潜力无限,远超当前消费互联网巨头的变现能力。 “我不认为未来我们和AI交互的方式会是一个聊天框。我觉得那太局限了。” “我认为最大的转变将是从今天的被动响应,走向未来的主动服务。” 👨💻 **“技术终结者”:a16z青睐的创始人类型** David George特别偏爱那些从技术起家,对产品有极深理解,并随着时间推移学会商业运作的创始人,他称之为“技术终结者”。这类创始人如Databricks的Ali Ghodsi、Roblox的Dave Baszucki、Figma的Dylan Field,以及新一代AI创业者,他们以不懈的强度和技术能力,在复杂市场中找到方向并取得成功。 “我特别喜欢某一类创始人,我称他们为‘技术终结者’。” “我喜欢那种不懈的强度,与技术能力、产品理解相结合。” 🏆 **市场领导者法则:赢家通吃** a16z对市场领导地位有着极其坚定的信念。David George认为,在绝大多数科技市场中,大部分市值创造都流向了市场领导者,投资第二名往往是痛苦的。他以Salesforce、Workday为例,强调这些市场中没有真正的“第二名”。然而,AI模型市场可能例外,更像云计算,会有多个参与者分享利润。 “绝大多数的市值创造都将流向市场领导者。这一点可能被低估了。” 🤝 **竞争激烈下的制胜策略:长期关系与独特洞察** 在日益机构化的风险投资市场中,a16z赢得顶级项目并非靠耸人听闻的手段,而是通过长达数年的关系建立。他们会在投资前就像公司投资者一样提供帮助(招聘、客户介绍),并展示对业务的深刻理解。Figma的投资故事就是一个例证,即使面对高估值和内部争议,最终也因对创始人、产品和市场的独特洞察而成功。 “在成长期投资这个行业,我们赢得项目靠的是长达数年的关系建立。” 🚀 **市场对增长的低估:为什么高增长公司被错误定价?** David George指出,市场普遍低估了持续高增长公司的价值,尤其当增长率超过30%时。他认为,这是因为投资者难以建模长期的高增长,往往会自然地假设增长率会迅速衰减。他以Google、Visa和iPhone为例,说明实际增长往往远超市场预期,导致估值出现巨大差异。 “当增长率超过百分之三十时,市场仍然没有充分评估这个增长率的价值。” ✨ **“拉力型”业务的魔力:市场渴求你的产品** “拉力型”业务是David George投资哲学的核心之一,即“市场是否在渴求你更多的产品?” 他认为,当市场对产品有强烈需求时,尤其是在消费领域,会创造出世界上最特别的公司,如ChatGPT(自然增长,品牌效应)和Roblox(双重网络效应)。在AI时代,获客容易、客户高留存和高参与度是评估“拉力型”AI业务的关键。 “当你找到一个‘拉力型’业务时,那简直是魔法。” “市场是否在渴求你更多的产品?当这种情况发生时,那是最特别的事情。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了全球知名播客《The Joe Rogan Experience》中,主持人乔·罗根与英伟达(NVIDIA)首席执行官黄仁勋的深度对话。黄仁勋,这位科技界的传奇人物,不仅是AI芯片领域的领军者,更是一位拥有非凡人生故事的移民。他将与乔·罗根分享自己从泰国移民美国、在贫困环境中成长、以及英伟达从濒临破产到成为市值万亿科技巨头的跌宕起伏的创业历程。在这场引人入胜的对话中,黄仁勋将揭示英伟达如何从为游戏玩家提供高性能显卡,一步步发展成为推动全球AI革命的核心力量,甚至创造了超越摩尔定律的“英伟达定律”。他们深入探讨了AI对社会未来可能产生的深远影响,包括就业市场的变革,AI意识的哲学思辨,以及AI在军事、网络安全和能源领域的应用。黄仁勋以其独特的视角,阐述了对AI未来的乐观展望,以及他作为领导者,如何通过“对失败的恐惧”而非“对成功的渴望”来驱动创新。他甚至分享了与前总统特朗普的一次奇特通话经历,以及英伟达在早期面临的数次“绝境求生”时刻。这不仅是一场关于科技前沿的探讨,更是一个关于韧性、创新和美国梦的感人故事。 翻译克隆自:Joe Rogan Experience #2422 - Jensen Huang 👨⚕️ 本期嘉宾 黄仁勋(Jensen Huang),英伟达(NVIDIA)联合创始人、总裁兼首席执行官。他是一位美籍华人企业家,被誉为“AI芯片之父”。在他的领导下,英伟达从一家图形芯片公司发展成为全球领先的AI计算平台公司,市值突破万亿美元。 ⏱️ 时间戳 开场白与黄仁勋介绍 00:00 播客简介与嘉宾介绍 黄仁勋与特朗普的奇遇 02:13 与特朗普的通话趣事 05:35 特朗普的政策与常识性思考 AI时代的科技竞赛与未来展望 08:49 科技竞赛的历史与重要性 12:29 对AI未来的乐观与担忧 16:20 AI在军事与网络安全的应用 22:48 AI、隐私与量子计算 25:35 AI意识与感知能力思辨 35:19 AI生成知识的未来影响 AI对就业与社会的影响 37:21 AI与就业市场变革 47:05 AI弥合技术鸿沟 英伟达的创新之路 50:31 摩尔定律与英伟达定律 55:03 GPU与AI大爆炸 01:03:06 OpenAI的诞生与英伟达的早期支持 01:09:22 英伟达的创立与数次绝境求生 黄仁勋的领导哲学与工作观 01:31:33 “对失败的恐惧”驱动创新 01:40:11 英伟达的企业文化与未来洞察 黄仁勋的美国梦故事 01:45:59 移民美国的艰辛童年 CUDA的诞生与冒险精神 01:56:16 坚持信念,推动CUDA技术 Joe Rogan的播客之路 02:00:52 播客的起源与发展 02:03:09 热爱对话的驱动力 结语 02:06:25 成功背后的艰辛与感激 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
📝 本期播客简介 本期我们克隆了知名科技记者Ashley Vance对OpenAI首席研究官Mark Chen的深度访谈。Mark Chen不仅是Sam Altman和Jakob Pachocki之外,共同塑造OpenAI研究方向的关键领导者,更负责分配珍贵的计算资源,身处A I最前沿的核心。 在这场对话中,Mark Chen首次揭秘了OpenAI与Meta之间激烈的人才争夺战,包括扎克伯格亲自送汤挖人的趣闻,以及OpenAI如何凭借独特的使命感留住顶尖人才。他详细阐述了OpenAI不追逐短期基准、而是专注于探索下一个技术范式的研究哲学,以及他们如何通过大胆押注强化学习等方向,引领了A I领域的突破。 Mark Chen还分享了他从数学竞赛天才到华尔街量化分析师,再到OpenAI核心领导者的个人成长轨迹。他透露了A I在解决复杂数学问题和编程竞赛中超越人类的表现,并展望了A I作为“实习生”加速科学发现的未来。对于通用人工智能的到来,他给出了与众不同的视角,并强调了安全与对齐研究的重要性。此外,他还谈到了与Jony Ive合作设计未来A I设备,以及OpenAI在“政变”风波中如何团结一致的幕后故事。这是一场关于A I前沿、竞争、个人信念与未来愿景的精彩对话,不容错过。 翻译克隆自:OpenAI's Research Chief Refuses To Lose . . . At Anything - EP 46 Mark Chen 👨⚕️ 本期嘉宾 Mark Chen,OpenAI首席研究官。他是OpenAI研究方向的关键领导者之一,负责分配计算资源。他从数学竞赛天才到华尔街量化分析师,再到OpenAI核心领导者,亲历并塑造了AI领域的诸多突破。 ⏱️ 时间戳 00:00 开场 & 播客简介 人才争夺战:OpenAI与Meta的较量 02:14 Meta的挖人攻势与OpenAI的应对:扎克伯格亲自送汤? 05:10 竞争策略:留住关键人才而非所有人 OpenAI的核心研究哲学与资源分配 06:06 首席研究官职责:塑造研究方向与GPU分配 08:23 探索性研究:不追逐基准,押注下一个技术范式 12:45 纯粹的AI研究公司:以研究胜利创造价值 13:25 研究与工程:深度工程实践的重要性 14:40 面对竞争:专注长期预训练而非短期基准 17:49 数学与编程竞赛:AI超越人类的表现与直觉 22:36 AI加速科学发现:GPT-5 Pro的突破与“OpenAI for Science” 25:16 AI对面试与教育的颠覆:用ChatGPT面试的设想 28:05 扑克与AI:数学本质的共通性 30:59 从华尔街到AI:寻求改变世界的使命 34:04 AI研究的门槛:三到六个月达到前沿 35:13 OpenAI职业生涯:从驻场研究员到研究负责人 38:58 “政变”风波:团结团队与守护研究部门 43:12 人才流失与自下而上的研究文化 46:30 竞争与开放:快速超越而非建立壁垒 48:50 领导层协作:Sam、Jakob与Mark的动态 51:25 预训练的瓶颈与强化学习的突破 53:33 AI领域的精英社会:技术判断与尊重 55:11 对未来突破的乐观:规模化远未“已死” 57:26 AGI的定义与科学发现的加速 01:03:52 Jony Ive合作:设计以AI为核心的未来设备 01:07:18 “品味”与AI设计:ChatGPT最喜欢的数字? 01:09:27 OpenAI的使命:自动化AI研究与科学发现 01:12:29 DeepSeek事件:坚守创新路线图 01:13:32 功劳归属:认可贡献与培养超级明星 01:15:43 安全与对齐:理解模型思维过程,防止“诡计” 🌟 精彩内容 💡 人才争夺战中的OpenAI信念 Mark Chen透露,Meta曾积极挖角OpenAI员工,甚至扎克伯格亲自送汤。但OpenAI员工对公司的使命和未来潜力充满信心,即使薪酬低于Meta,也选择坚守。Mark Chen甚至开玩笑称自己也开始借鉴“送汤”策略。 “每个人都对OpenAI的研究项目非常有信心。而且我对我团队,对整个研究部门都明确表示过:我们不会跟Meta一块钱对一块钱地去竞价。但即便我们开出的薪酬比Meta低很多,大家还是很乐意留在OpenAI,这让我坚信,大家真的相信我们未来的潜力,相信我们能做成这件事。” 🚀 OpenAI的独特研究哲学 OpenAI不追逐短期基准,而是专注于探索下一个技术范式。Mark Chen以强化学习为例,解释OpenAI如何大胆押注,将其从不受欢迎的方向转变为语言模型不可或缺的基础功能。他强调,OpenAI的核心是纯粹的AI研究公司,相信专注研究并取得突破是创造价值的最佳方式。 “我们总是在努力寻找下一个技术范式,并且愿意投入资源来确保我们能找到它。很多人可能会觉得惊讶,但我们投入到探索性研究上的计算资源,其实比用来训练最终模型本身的还要多。” 🧠 AI超越人类智慧:从编程竞赛到科学发现 Mark Chen分享了AI在编程竞赛中超越人类的表现,以及GPT-5 Pro在物理学领域展现出的超人能力。他认为AI在科学发现中具有巨大潜力,并提出了“OpenAI for Science”项目,旨在赋能科学家利用AI加速研究。 “我只是觉得,这种情况会越来越多地发生在前沿数学、科学、生物学、材料科学等领域。模型真的已经达到了那个水平。” 🛠️ AI对齐与安全:理解模型思维过程 Mark Chen强调对齐是未来一两年最大的挑战之一。OpenAI在“诡计”(scheming)等问题上做了大量工作,试图理解模型的思维过程,防止其通过扭曲方式达成目标。他认为机制可解释性至关重要,并探索通过模型互相监督等方式确保AI与人类价值观一致。 “掌握它的思维过程将变得极其重要。” 📱 Jony Ive合作:设计以AI为核心的未来设备 Mark Chen透露OpenAI正与Jony Ive合作设计未来AI设备。他认为未来的ChatGPT将具备更强的记忆功能和反思能力,设备设计将围绕这一核心理念展开,以创造更自然、更智能的人机交互体验。 “我认为未来会是这样一个世界:记忆功能会得到极大改善。每次你去找ChatGPT,它都会深入地了解你,它会反思你为什么会问这个问题,以及相关的问题,等等。然后下次你再去找它,它就会变得更聪明。” 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧