#515. GPT-5、Claude 和 Gemini 的是如何训练与部署的
跨国串门儿计划

#515. GPT-5、Claude 和 Gemini 的是如何训练与部署的

92分钟 2,457 1周前
节目简介
来源:小宇宙
📝 本期播客简介
本期我们克隆了硅谷硬核科技播客《Dwarkesh Patel》How GPT-5, Claude, and Gemini are actually trained and served – Reiner Pope
嘉宾 Reiner Pope 是芯片初创公司 Maddox 的 CEO,更早之前曾在谷歌负责 TPU 架构设计。整期节目采用“黑板讲座”的形式,Reiner 从最基础的 roofline 模型出发,一步步推导出批次大小如何影响大模型推理的延迟与成本,揭示了“内存墙”为什么是上下文长度的真正枷锁。他还结合 Gemini、DeepSeek 等前沿模型的公开定价,反向推算出隐藏的技术架构,甚至连 KV 缓存存储在哪一层内存都能猜出来。对话后半段更跨界到密码学,探讨神经网络与密码协议在结构上的惊人相似。这是一堂 AI 基础设施的实战大师课,听完你会对“为什么 API 定价是这样”“为什么模型扩展变慢了”这些问题豁然开朗。
👨‍⚕️ 本期嘉宾
Reiner Pope,AI 芯片公司 Maddox 的创始人兼 CEO,曾在谷歌领导 TPU 架构设计,对分布式训练、推理系统和芯片设计有极其深厚的工程与研究积淀。他还是《Scaling》一书的作者。
⏱️ 时间戳
开场与技术形式
00:00 Yikai 开场及节目介绍
01:26 Dwarkesh 介绍嘉宾与“黑板讲座”设置
Roofline 模型与批次大小的艺术
02:53 为什么要从“批次大小”开始?它对延迟和成本的决定性影响
04:33 批处理为什么能节省上千倍成本?
07:04 一张延迟图看懂内存时间与计算时间的平衡
10:25 稀疏注意力与最优批次大小的代数推导
12:00 单用户推理为什么贵?成本曲线揭示的无穷大起点
15:20 最优批次大小≈300×稀疏度,一个跨硬件稳定的常数
17:08 推理引擎的“火车模型”:每 20 毫秒固定发车
19:35 从每秒 12.8 万 token 反推前沿模型的多大用户量
21:38 增加稀疏度划算吗?《路由语言模型统一法则》告诉你答案
模型架构与硬件拓扑
24:15 混合专家层如何分片到 GPU 机架上
27:47 机架内的 NVLink 高速网络与机架间慢八倍的“瓶颈”
32:33 为什么 GPT‑4 之后模型规模扩展变慢了?不是计算,是内存容量在等机架
35:40 流水线并行真的省了内存吗?通信模式的代数拆解
39:45 流水线气泡:训练中的微批次权衡与推理中的“不费脑”设计
内存墙、过度训练与规模法则
45:12 内存容量真的过剩吗?为何大家还在砸钱买 HBM?
49:03 为什么流水线并行对 KV 缓存无效?内存容量的死结
52:00 过度训练 100 倍?从 Chinchilla 最优到真实世界的偏离
58:23 预训练、强化学习与推理 token 的最优成本分配
01:04:24 惊人反推:预训练数据量其实约等于模型整个生命周期的推理 token 数
从 API 定价反推技术架构
01:05:26 Gemini 长上下文加价 50%的硬件解释
01:09:50 价格如何泄露秘密:每个 token 的字节数、KV 缓存大小都能算出来
01:12:47 输出 token 为什么比输入贵 5 倍?解码与预填充的内存带宽真相
01:14:51 KV 缓存命中便宜 10 倍:HBM、DDR 与机械硬盘的角色分配
01:22:00 5 分钟 vs 1 小时:定价时长正好对应闪存与机械硬盘的“排空时间”
交叉学科火花
01:24:17 神经网络与密码学:同样的“混合”结构,相反的训练目标
01:27:06 对抗攻击与后门:神经网络里的“雪崩效应”
01:28:45 从密码学借来的可逆网络:用计算换内存,反向传播不用存激活值
结尾
01:30:50 结语与致谢
🌟 精彩内容
💡 “火车模型”:理解推理延迟的钥匙
Reiner 把大模型推理比作固定时刻表的火车:每 20 毫秒发车一次,能上多少用户就上多少。这直接解释了为什么多付钱可以得到更快流式输出的“快速模式”,以及为什么存在“慢速模式”都无法突破的成本下限。
🛠️ 内存墙:限制上下文长度的真正元凶
“内存墙没有真正的解决方案”,Reiner 直言。通过 roofline 分析,他展示了为什么超出 20 万 token 左右后成本会急剧上升——不是因为算力不够,而是因为内存带宽被 KV 缓存吃满。这也是 Gemini 等模型长上下文定价加价 50%的根本原因。
🚀 用公开价格反推绝密架构
Reiner 现场演示了如何通过 API 每百万 token 的定价,推导出模型中每 token 的 KV 缓存字节数(约 2KB)、注意力头的维度,甚至推断出缓存是放在 HBM、DDR 还是机械硬盘里。一堂震撼的技术情报分析课。
💻 批次大小:从千倍成本差到硬件常数
如果不做批处理,单用户推理的成本可能比批处理高上千倍。而最优批次大小竟然可以通过一个简单的硬件常数(算力 / 内存带宽)乘以模型稀疏度直接估算出来,这个常数在不同 GPU 世代间保持惊人稳定。
❤️ 密码学与神经网络:同构的两面
神经网络通过梯度下降学习结构,密码学却拼命制造随机性的“雪崩效应”。Reiner 指出,这恰恰是同一个混合架构的两个极端用途,而可逆网络正是从密码学中借来、用于节省训练内存的巧妙设计。
🌐 播客信息补充
本播客采用原有人声声线进行播客音频制作,也可能会有一些地方听起来怪怪的
使用 AI 进行翻译,因此可能会有一些地方不通顺;
如果有后续想要听中文版的其他外文播客,也欢迎联系微信:iEvenight

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧