Album

跨国串门儿计划

克隆翻译精品英文科技播客

yikai- 佚名
5.45万 订阅 521 集 1周前
播客简介
这是一档使用 AI 技术来将英文播客翻译为中文播客的节目~ 在翻译的同时,也能保留原有声线,用中文听懂外语播客!
节目

#517. 解码Snap的未来:Evan Spiegel详解AR眼镜、AI写代码与社交网络新范式

跨国串门儿计划

📝 本期播客简介 本期我们克隆了知名英文科技播客《Decoder》的一期深度对谈 What comes after smartphones, with Evan Spiegel of Snap 主持人 Nilay Patel 与 Snap 公司联合创始人兼 CEO Evan Spiegel 在酒吧里边下棋边聊,坦诚分享了 Snap 的最新进展、Spectacles 眼镜的研发历程,以及他对增强现实、人工智能和社交网络未来的深刻洞见。从十二年 AR 之路的技术攻坚,到 AI 如何彻底改变软件开发,再到社交与媒体为什么要彻底分开——Evan Spiegel 用他的人本主义技术观,描绘了一幅不随大流的科技蓝图。 👨‍💼 本期嘉宾 Evan Spiegel,Snap Inc. 联合创始人兼 CEO,Spectacles 眼镜的缔造者。他自 2014 年起带领团队投入 AR 眼镜研发,同时将 Snapchat 打造成月活近十亿的即时通讯平台。他以对产品的不妥协和对人本设计的坚持闻名,是少数敢于挑战主流社交模式、并持续押注下一代计算的创始人之一。 ⏱️ 时间戳 开场 00:00 开场 & 播客简介 AR 之路与 Spectacles 01:35 Snap 的“熔炉时刻”:十亿月活、净利润盈利在即 02:22 Spectacles 首次面向消费者:十二年磨一剑 03:04 技术挑战:为什么把计算机塞进眼镜这么难? 07:51 全栈自研:从 Snap OS 到光学引擎,为什么弃用安卓? 12:34 何时普及?1984 年 Macintosh 式的早期尝鲜者 15:23 拍照眼镜的教训:“好十倍”原则与护城河 未来计算与人机交互 04:25 后手机时代:先转移大屏,再创造全新体验 09:52 以人为本的设计哲学:为什么眼镜是计算的必然归宿 16:08 “杀手级应用已死”:AI 时代,人们为自己量身打造软件 18:10 Lens Studio:让任何人都能快速构建 AR 体验 社交网络的设计哲学 20:31 Snapchat 的核心:即时通讯与年超万亿自拍的相机帝国 24:35 网络不是越大越好:为什么密友圈带来更强幸福感 27:06 最大的错误:把社交和媒体结合,制造反常激励 29:35 短暂性的价值:默认删除,保存例外 31:05 未来的沟通:通过 Spectacles 在真实世界中连接 商业、青少年与责任 21:38 营收双引擎:广告 + Snapchat Plus(2500 万订阅,年化十亿美元) 22:16 当 AI 推理成本上升,直接收入为何越发重要 33:05 孩子与屏幕:健康平衡胜过一刀切 36:10 澳大利亚禁令的失效:克隆应用与系统级控制缺失 38:20 社交媒体与心理健康:为什么 Snapchat 呈正相关? 41:09 内容准则:在源头审核,而非依赖算法纠偏 产品创新与领导力 43:15 保持“酷”的秘诀:不追求酷,追求持久价值 43:59 每周几百个创意:设计师直接提交代码的设计评审 45:42 连续互发(Streaks)的转变:从反对到被用户故事打动 47:33 跨职能协作:设计、工程与产品的平等对话 47:58 挪威奇迹:高网络渗透 + 重视亲密关系,点燃早期增长 50:12 领导力进化:从打造产品到激励人攻克最难问题 制造与知识产权 51:23 美国制造:关键光学组件本土化,保护核心 IP 52:33 结尾:酒吧飞镖与下棋,轻松收官 🌟 精彩内容 💻 AI 席卷代码库 “现在 Snap 超过三分之二的新代码都是 AI 写的,这个转变发生得非常非常快。……我们写软件和运营公司的方式正在发生翻天覆地的变化。” Evan 透露,Claude 等工具正在彻底改变全公司的软件开发,而这也让 Snap 在 AI 时代拥有更独特的竞争优势。 🔀 社交与媒体必须分开 “最大的错误就是把社交和媒体结合在一起,这制造了很多反常的激励。” Snap 从一开始就将好友沟通与公共内容严格分开,避免为了填充信息流而迫使用户加更多好友,从而保护了密友圈的私密、自在与真实表达。 ❌ 我们不想让你盯着一堆数字看 “我们不想让你盯着一堆数字看,我们想退后一步,帮你跟朋友好好交流。” Evan 解释 Snap 为何抵制显式的粉丝数、点赞数等量化指标,甚至多次想砍掉 Streaks 功能,最终却被无数用户来信说服——一个简单的连续互发标记,成了维系远方友谊的生命线。 👓 眼镜是计算的必然 “如果让计算更人性化,它必须从口袋里拿出来,放在眼前和耳旁。” 从十几年前开始做 Spectacles,Evan 就坚信眼镜是能融入人类生活、解放双手、理解环境的最佳形态,而非一块让人低头的屏幕。 💡 “好十倍”铁律 “如果做不到比现有方案好十倍,那投资进去就没意义。” 早期拍照眼镜的失败让 Snap 立下这条产品铁律,也是为什么 Spectacles 不满足于做 GoPro 替代品,而是瞄准真正的空间计算平台。 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight

54分钟
99+
1周前

#516. Andrej Karpathy 对谈:为什么程序员从未如此落后?

跨国串门儿计划

📝 本期播客简介 本期我们克隆了:一档以人工智能为核心的英文对谈播客 Andrej Karpathy: From Vibe Coding to Agentic Engineering 本期嘉宾 Andrej Karpathy 是 OpenAI 联合创始人、特斯拉 Autopilot 前 AI 负责人,也是“软件 2.0”理念的提出者和“vibe coding”一词的创造者。在离开前沿大厂后,他以更犀利的视角重新审视 AI 编程的爆发。他为何说自己作为程序员从未感到如此落后?Vibe coding 如何从一个玩笑变成真正的工程实践?软件 3.0 时代,编程的本质被改写成什么?Andrej 用亲身案例、可验证性框架以及“动物与幽灵”的比喻,为听众描绘了一幅从编码到智能体工程的认知地图。他还强调:无论 AI 如何进化,“你不能外包你的立场”。这是一场关于技术变革与人类定位的深度对话。 👨‍⚕️ 本期嘉宾 Andrej Karpathy,人工智能领域最具影响力的思想者与教育者之一。他是 OpenAI 的联合创始人,曾在特斯拉主导 Autopilot 的 AI 研发,被广泛认为是“软件 2.0”理念的提出者。他创造的“vibe coding”一词,精准捕捉了 AI 辅助编程的文化变迁,引发了全球开发者圈的广泛讨论。目前他致力于 AI 教育,以清晰透彻的讲解著称。 ⏱️ 时间戳 00:00 开场 & 本期播客简介 01:39 嘉宾登场:OpenAI 联合创始人 Andrej Karpathy 从“落后感”到 Vibe Coding 02:18 作为顶尖程序员,为何突然感到从未如此落后? 03:13 Vibe Coding 的诞生:12月,一个决定性的转折点 软件三点零:编程的重新定义 03:54 软件1.0→2.0→3.0的演化:提示成为编程,上下文成为杠杆 04:44 实例一:用一段文字安装 OpenCL,告别膨胀的脚本 05:44 实例二:menu gen 的命运——一个简单的提示秒杀了整个应用 07:08 超越代码:AI 正在自动化广义的信息处理 可验证性:AI 自动化背后的引擎 09:39 锯齿状智能:为什么 AI 能解复杂方程却不会去洗车? 10:52 强化学习与验证奖励:模型能力的底层逻辑 12:50 给创业者的启发:在可验证的蓝海领域,你还有机会 从 Vibe Coding 到 Agent Engineering 14:31 Vibe Coding 抬高下限,Agent Engineering 拉高上限:十倍加速不是梦 15:21 智能体像“带刺的实习生”:如何驾驭其随机性与脆弱性 16:48 招聘革命:用“部署推特并抵御攻击”代替白板谜题 17:29 人类的领地:品味、判断与对“实习生”的监督 智能体的本质与世界的重构 20:46 动物还是幽灵?理解大语言模型的真实形态 22:04 把世界看作传感器与执行器:智能体原生时代 22:20 基础设施的“智能体优先”革命:别再让我手动部署 教育、理解与“不能外包的立场” 23:51 “你可以外包你的思考,但你不能外包你的立场” 24:23 为什么理解仍是瓶颈?用 AI 增强而非替代人类的认知 🌟 精彩内容 💡 “我作为程序员从未感到过如此落后” Andrej Karpathy 坦言,在去年12月,AI 编程工具的连贯性发生了质变,让他进入了“vibe coding”状态。他不再纠正代码,而是完全信任系统。“我已经好几个月没写过 HTML 或 JavaScript 了,都是 AI 在处理。”这种从怀疑到全盘接受的体验,定义了新一代编程文化的起点。 🛠️ 软件3.0:一行提示消灭一个应用 通过 menu gen 的例子,Andrej 揭示了软件3.0的可怕潜力。当他用复杂的开发流程做了一个菜单可视化应用后,却发现用 Gemini 的一个简单提示“用 Nana Banana 把这些东西覆盖到菜单上”就直接生成了最终图片,应用本身变得毫无必要。这让他惊呼:“我做的 menu gen 完全是多余的……那个应用根本不应该存在。”它标志着从编写代码到编写上下文的根本迁移。 🚀 可验证性:AI 的“锯齿状”真相 为什么顶尖模型能重构十万行代码,却会建议你走路去洗车?Andrej 用“可验证性”和强化学习训练机制解释了 AI 能力的参差不齐。他指出,模型在可被验证的领域(如数学、编程)表现超群,但在未经强化学习打磨的常识上则显得笨拙。理解这种锯齿状,是创业者选择 AI 应用方向的关键。 ❤️ 不能外包的立场 面对 AI 自动化一切的未来,Andrej 强调,人类最后的价值不在于计算,而在于判断。“有一条推文让我大为震撼:你可以外包你的思考,但你不能外包你的立场。”他认为,即使智能体再强大,理解仍是创作者的瓶颈,而用 AI 工具增强理解,才是保持航向的核心。 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight

26分钟
2k+
1周前

#515. GPT-5、Claude 和 Gemini 的是如何训练与部署的

跨国串门儿计划

📝 本期播客简介 本期我们克隆了硅谷硬核科技播客《Dwarkesh Patel》How GPT-5, Claude, and Gemini are actually trained and served – Reiner Pope 嘉宾 Reiner Pope 是芯片初创公司 Maddox 的 CEO,更早之前曾在谷歌负责 TPU 架构设计。整期节目采用“黑板讲座”的形式,Reiner 从最基础的 roofline 模型出发,一步步推导出批次大小如何影响大模型推理的延迟与成本,揭示了“内存墙”为什么是上下文长度的真正枷锁。他还结合 Gemini、DeepSeek 等前沿模型的公开定价,反向推算出隐藏的技术架构,甚至连 KV 缓存存储在哪一层内存都能猜出来。对话后半段更跨界到密码学,探讨神经网络与密码协议在结构上的惊人相似。这是一堂 AI 基础设施的实战大师课,听完你会对“为什么 API 定价是这样”“为什么模型扩展变慢了”这些问题豁然开朗。 👨‍⚕️ 本期嘉宾 Reiner Pope,AI 芯片公司 Maddox 的创始人兼 CEO,曾在谷歌领导 TPU 架构设计,对分布式训练、推理系统和芯片设计有极其深厚的工程与研究积淀。他还是《Scaling》一书的作者。 ⏱️ 时间戳 开场与技术形式 00:00 Yikai 开场及节目介绍 01:26 Dwarkesh 介绍嘉宾与“黑板讲座”设置 Roofline 模型与批次大小的艺术 02:53 为什么要从“批次大小”开始?它对延迟和成本的决定性影响 04:33 批处理为什么能节省上千倍成本? 07:04 一张延迟图看懂内存时间与计算时间的平衡 10:25 稀疏注意力与最优批次大小的代数推导 12:00 单用户推理为什么贵?成本曲线揭示的无穷大起点 15:20 最优批次大小≈300×稀疏度,一个跨硬件稳定的常数 17:08 推理引擎的“火车模型”:每 20 毫秒固定发车 19:35 从每秒 12.8 万 token 反推前沿模型的多大用户量 21:38 增加稀疏度划算吗?《路由语言模型统一法则》告诉你答案 模型架构与硬件拓扑 24:15 混合专家层如何分片到 GPU 机架上 27:47 机架内的 NVLink 高速网络与机架间慢八倍的“瓶颈” 32:33 为什么 GPT‑4 之后模型规模扩展变慢了?不是计算,是内存容量在等机架 35:40 流水线并行真的省了内存吗?通信模式的代数拆解 39:45 流水线气泡:训练中的微批次权衡与推理中的“不费脑”设计 内存墙、过度训练与规模法则 45:12 内存容量真的过剩吗?为何大家还在砸钱买 HBM? 49:03 为什么流水线并行对 KV 缓存无效?内存容量的死结 52:00 过度训练 100 倍?从 Chinchilla 最优到真实世界的偏离 58:23 预训练、强化学习与推理 token 的最优成本分配 01:04:24 惊人反推:预训练数据量其实约等于模型整个生命周期的推理 token 数 从 API 定价反推技术架构 01:05:26 Gemini 长上下文加价 50%的硬件解释 01:09:50 价格如何泄露秘密:每个 token 的字节数、KV 缓存大小都能算出来 01:12:47 输出 token 为什么比输入贵 5 倍?解码与预填充的内存带宽真相 01:14:51 KV 缓存命中便宜 10 倍:HBM、DDR 与机械硬盘的角色分配 01:22:00 5 分钟 vs 1 小时:定价时长正好对应闪存与机械硬盘的“排空时间” 交叉学科火花 01:24:17 神经网络与密码学:同样的“混合”结构,相反的训练目标 01:27:06 对抗攻击与后门:神经网络里的“雪崩效应” 01:28:45 从密码学借来的可逆网络:用计算换内存,反向传播不用存激活值 结尾 01:30:50 结语与致谢 🌟 精彩内容 💡 “火车模型”:理解推理延迟的钥匙 Reiner 把大模型推理比作固定时刻表的火车:每 20 毫秒发车一次,能上多少用户就上多少。这直接解释了为什么多付钱可以得到更快流式输出的“快速模式”,以及为什么存在“慢速模式”都无法突破的成本下限。 🛠️ 内存墙:限制上下文长度的真正元凶 “内存墙没有真正的解决方案”,Reiner 直言。通过 roofline 分析,他展示了为什么超出 20 万 token 左右后成本会急剧上升——不是因为算力不够,而是因为内存带宽被 KV 缓存吃满。这也是 Gemini 等模型长上下文定价加价 50%的根本原因。 🚀 用公开价格反推绝密架构 Reiner 现场演示了如何通过 API 每百万 token 的定价,推导出模型中每 token 的 KV 缓存字节数(约 2KB)、注意力头的维度,甚至推断出缓存是放在 HBM、DDR 还是机械硬盘里。一堂震撼的技术情报分析课。 💻 批次大小:从千倍成本差到硬件常数 如果不做批处理,单用户推理的成本可能比批处理高上千倍。而最优批次大小竟然可以通过一个简单的硬件常数(算力 / 内存带宽)乘以模型稀疏度直接估算出来,这个常数在不同 GPU 世代间保持惊人稳定。 ❤️ 密码学与神经网络:同构的两面 神经网络通过梯度下降学习结构,密码学却拼命制造随机性的“雪崩效应”。Reiner 指出,这恰恰是同一个混合架构的两个极端用途,而可逆网络正是从密码学中借来、用于节省训练内存的巧妙设计。 🌐 播客信息补充 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight

92分钟
2k+
1周前

#514.DeepMind创始人Demis Hassabis谈AGI、AlphaFold与科学发现的未来

跨国串门儿计划

📝 本期播客简介 本期我们克隆的是 Y Combinator 官方播客的一期深度对谈。Demis Hassabis: Agents, AGI & The Next Big Scientific Breakthrough 主持人 Gary 是 YC 的 CEO,嘉宾 Demis Hassabis 是 DeepMind 的联合创始人兼 CEO,他因破解生物学上长达五十年的蛋白质结构预测难题,在去年获得了诺贝尔化学奖。 在这期节目里,你将听到 Demis Hassabis 从国际象棋神童、游戏设计师到诺奖得主的传奇经历,以及他对通用人工智能的终极思考。对话深入探讨了当前 AI 系统缺失的关键组件——持续学习、长期推理和记忆;他独家披露了 DeepMind 如何将其在 AlphaGo 上验证过的强化学习和搜索哲学,融入当今最先进的 Gemini 大模型。此外,他还分享了小模型的“蒸馏”艺术、智能体的真实进展,以及 AI 将在未来五年如何彻底变革材料科学、药物发现等基础科学领域。对于每一位正在科技前沿探索的创始人,Demis 给出了一条至关重要的建议:在 AGI 可能于途中降临的时代,你该如何预判技术走向,构建真正具有防御性的深度科技公司。 👨‍⚕️ 本期嘉宾 Demis Hassabis,Google DeepMind 联合创始人兼 CEO,2024年诺贝尔化学奖得主。他从小是国际象棋神童,17岁便设计了畅销游戏《主题公园》,后来获得认知神经科学博士学位,并于2010年创立 DeepMind,致力于“解决智能问题”。他领导的团队开发了击败世界围棋冠军的 AlphaGo 和破解蛋白质结构预测难题的 AlphaFold,后者已被全球超过三百万研究人员使用,被誉为 AI 加速科学发现的里程碑。目前,他正带领团队打造 Gemini 模型,并继续朝着通用人工智能的宏大目标前进。 ⏱️ 时间戳 开场与嘉宾传奇 00:00 开场:Y Combinator播客简介与Demis Hassabis的非凡成就 03:30 Demis的职业生涯回顾:从棋坛神童到认知神经科学博士,再到DeepMind创立 05:00 AlphaGo与AlphaFold:两个改变世界对AI认知的里程碑 06:30 诺奖背后:免费开放AlphaFold,赋能全球每一位科学家 AGI架构的未来拼图 07:15 当前范式的局限:大模型还缺什么?持续学习、长期推理与记忆 09:45 “梦境循环”与海马体:神经科学启发下的经验重放技术 12:30 上下文窗口是终极方案吗?工作记忆的蛮力模拟与信息检索成本 15:00 生物大脑不是机器:完美记忆的承诺与逻辑成本困境 从AlphaGo到Gemini:强化学习的回归 17:45 智能体的原始基因:Atari游戏与AlphaGo如何定义自主系统 19:45 “想太多”的模型:在思维链中如何避免循环错误 22:00 强化学习被低估了吗?将游戏策略泛化到世界模型 24:00 AlphaZero的旧思想与当今基础模型的新结合 超高效的小模型:蒸馏的艺术 26:30 从庞大前沿模型到轻量级Flash:蒸馏技术的极限在哪? 28:30 为何必须极致高效:服务数十亿用户的谷歌生态与低延迟刚需 30:30 速度优于绝对能力:迭代效率如何弥补5%的能力差距 32:00 隐私与安全:设备端小模型的战略意义 智能体时代的黎明 35:00 智能体真实能力:到底是炒作还是真正的起步? 37:00 人机协作:为什么还没出现“AI造出的爆款游戏”? 38:45 失踪的创造火花:一个能发明“围棋”的系统何时到来? 40:15 工具的灵魂:人类品味与创造力的不可或缺 多模态、开源与设备端模型 43:30 从Gemini到Gemma:开放科学基因与开源模型战略 46:00 为何开放边缘模型?部署风险与安卓、机器人的全球布局 48:00 多模态先见:如何让AI理解物理世界并遥遥领先 AI与基础科学的下一个突破口 51:00 AlphaFold的范式:组合搜索空间、清晰目标函数与合成数据 53:30 迈向虚拟细胞:我们需要什么样的活细胞成像技术? 56:00 未来五年最具变革潜力的科学领域:材料、气候与数学 58:00 根节点问题:如何用AI解锁全新科学发现的分支 给深科技创始人的忠告 01:00:30 预测AI走向与跨学科结合:如何构建不被基础模型吞没的护城河 01:03:00 拥抱深度科技:真正有价值的事从不简单,相信你的另类视角 01:06:30 为自己热爱的事业而战:即使技术未成,你也会找到继续的路 01:08:30 终极建议:在AGI终点途中启动你的深科技征程 终极挑战:科学推理与AI的创造力 01:10:30 系统能否自己提出“黎曼假设”?超越模式匹配的科学推理 01:13:00 “爱因斯坦测试”:训练截止1901年的模型,它会发现狭义相对论吗? 01:16:00 通用工具与专用系统的未来:为何AGI不应是一个巨无霸大脑 🌟 精彩内容 💡 AGI的最终架构:还缺哪几块拼图? Demis 明确指出,尽管当前的大规模预训练、RLHF和思维链范式已非常强大,但要实现完全的通用智能,我们还必须攻克持续学习、长期推理和更高效稳定的记忆机制。“我觉得现有的组件会是AGI最终架构的一部分,但可能还需要一两个重大的想法去突破。” 🧠 从神经科学借来的AI灵感 Demis 结合其认知神经科学的博士背景,解释了DeepMind早期突破的核心概念——“经验重放”如何源于对大脑海马体在睡眠中巩固记忆的研究。这一在2013年被用于Atari游戏AI DQN的 “远古时期”突破,至今仍对克服模型的“无状态”难题具有深刻启发。 🚀 小模型的大智慧与蒸馏的极限 当被问及小模型的聪明程度是否有极限时,Demis 乐观地表示目前远未触及信息密度的天花板。“我们的一款前沿模型发布半年到一年后,你就能在那种非常小、几乎能跑在设备端的模型里看到同样的能力。” 这不仅关乎成本,更关乎速度与隐私,他认为设备端高效模型加云端强大模型协调将是理想的终局。 ♟️ 当AI“想太多”:从国际象棋的错误说开去 Demis 分享了与Gemini下棋的有趣观察:模型有时会意识到某步是臭棋,但因找不到更好的选择而依然走出那一步。“在一个精确的推理系统里,你根本不应该看到这种事……我总觉得它对自己的思考过程缺少一种内省。” 这反映了当前系统推理能力的“锯齿状”特征。 🔬 科学发现的下一个“AlphaFold时刻” Demis 提出了他所寻找的科学突破范式:一个巨大的组合搜索空间、一个明确定义的目标函数、以及足够的数据或合成数据模拟器。他预测在材料科学、药物发现等领域,我们正处于类似AlphaFold爆发前的“临门一脚”时刻,并给出了“十年内实现完整虚拟细胞”的具体时间线。 💎 创始人的黄金法则:预判AI,拥抱深科技 对于创业者,Demis 的建议直击要害:“你必须预判 AI 技术的发展走向。” 他认为,将AI与某个深度技术领域(如材料、医药)相结合的跨学科团队,将最具防御性,不会轻易被基础模型的下一次更新淹没。此外,他鼓励所有人将生命投入到“如果你不做就不会有人去推动、真正能改变世界的事情”上。 🌐 播客信息补充 翻译克隆自:Y Combinator 官方播客 本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的 使用 AI 进行翻译,因此可能会有一些地方不通顺; 如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight

34分钟
1k+
1周前
评价

空空如也

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧