Album

一支烟花AI播客

AI一线从业者发起的一档深度访谈与技术分享的播客

一支烟一朵花、吵爷 一支烟一朵花
923 订阅 58 集 2周前
播客简介
一支烟花社区成立于2023年的秋天,当最后一片红叶落地的时候, 我们知道是时候了。 勇敢地参与到了这场轰轰烈烈的AI大航海之中。 欢迎大家关注我的公众号/视频号/墨问:一支烟一朵花 欢迎加入交流社群,备注:一支烟花播客粉丝
节目

黄仁勋最新对谈:英伟达护城河、CUDA、供应链与中国市场

一支烟花AI播客

本期介绍 如果 AI 会让软件越来越同质化,英伟达的护城河还能持续多久? 讨论从一个很典型的追问开始: 英伟达是不是只是把设计交给台积电、把封装和整机交给供应链,自己最终仍然会变成一家被商品化的公司。 Jensen 的回答不是从单个芯片出发,而是从“电子如何变成 token”这个过程来解释英伟达的角色。 后面的讨论逐步展开到 agent 对工具软件的影响、供应链和 EUV 产能、CUDA 与安装基础、TPU / ASIC 替代、 资本开支与生态投资、价格分配、中国与出口限制,以及 AI 之外的长期业务。 如果你关心 AI 基础设施、半导体产业链、平台型公司的系统级护城河,这期会很值得听。 本期你会听到 * 为什么 Jensen 认为 AI 不会简单地把软件和英伟达都变成 commodity * agent 普及后,工具软件和工程软件为什么可能反而更值钱 * 英伟达的护城河为什么不只来自 GPU,而是算法、网络、软件栈和安装基础的组合 * 为什么云厂商和大模型公司仍然会持续尝试 TPU / ASIC * 英伟达如何看待 OpenAI、CoreWeave、生态投资与利润分配 * 对中国、开源模型、出口限制和美国技术扩散的判断 * 为什么 AI 之外,英伟达仍然有足够大的长期业务 Timeline * 00:00:00 开场:从“AI 会让软件商品化”追问到英伟达会不会也被商品化。 * 00:00:39 从电子到 token:Jensen 用一句话解释他如何定义英伟达的角色。 * 00:03:44 Agent 时代的工具红利:为什么他判断工具软件会因为智能体而不是被 AI 打垮。 * 00:09:08 供不应求与供应链:需求高涨时,真正的瓶颈往往遍布整条产业链。 * 00:11:33 提前几年投瓶颈:硅光、封装、测试、供应商协同如何被提前布局。 * 00:13:35 EUV 与产能扩张:制造能力到底有多难复制,哪些能力最稀缺。 * 00:21:26 根本优势不是摩尔定律:Blackwell 跳跃背后,是算法和系统设计一起重写。 * 00:28:01 CUDA 与安装基础:生态、可编程性和遍布全球的部署规模为什么仍是飞轮。 * 00:35:16 TPU / ASIC 为什么一直会出现:即使英伟达强势,客户也会持续寻找替代路径。 * 00:42:10 英伟达怎么花钱:从 OpenAI 到 CoreWeave,为什么生态投资是战略的一部分。 * 00:52:44 为什么不价高者得:Jensen 如何看待价格、配给和长期合作关系。 * 00:58:36 中国、开源与出口限制:为什么“保持对话”和“保持开放生态”比单纯封锁更重要。 * 01:03:58 AI 首先是并行计算问题:工艺节点重要,但不是全部,网络、内存和系统设计同样关键。 * 01:09:06 美国技术栈是不是好消息:如果全球模型都更适配非美硬件,真正的坏消息是什么。 * 01:22:45 给中国更多算力会怎样:这段讨论集中在市场、收益和国家竞争之间的拉扯。 * 01:28:12 全球扩散:印度、中东、非洲、东南亚为什么会成为美国技术栈的关键战场。 * 01:39:59 AI 之外的英伟达:计算光刻、量子化学、图形学和科学计算仍然是长期基本盘。 适合谁听 * 在看 AI 基础设施、半导体、云计算和大模型产业链的人 * 想理解英伟达护城河到底建立在什么地方的人 * 关注中美 AI 竞争、出口限制和全球技术扩散的人 * 想快速补一场高密度技术对谈的人 关于一支烟花: 一支烟花是一个高质量偏硬核的 AI 社区,成立于 2023 年,我们有 40+相关 AI 垂直社群, 欢迎听友们加入,通过播客公告可以添加小助手。 公众号:一支烟花 AI

100分钟
71
2周前

语义高亮——RAG的隐形Bug

一支烟花AI播客

节目简介 你的RAG系统检索很准,但用户还是说"搜出来的东西找不到重点"? 这期我们聊一个大多数人没注意到的裂缝: 检索是语义化的,但高亮还在用关键词匹配。 搜"iPhone性能",文档讨论的是"A15仿生芯片"和"基准分数",什么都没高亮。 为什么LLM解决不了这个问题(每秒10美元成本),以及一个0.6B参数的小模型如何做到毫秒级语义高亮。 时间线 01:00 RAG系统的一个被忽视的问题 03:00 语义检索 vs 关键词高亮——裂缝在哪 06:00 3000字文档没有高亮:用户体验灾难 08:00 为什么LLM不行——每秒10美元的成本计算 12:00 Zilliz的解决方案:0.6B的小模型 15:00 为什么要用Qwen3解释推理步骤(内置质量检查) 17:00 知识蒸馏的力量:8x A100训练5小时 18:00 测试结果:跨域泛化才是关键 21:00 集成到Milvus:未来开箱即用 22:00 系列联动:从AI记忆到Paged Attention到语义高亮 24:30 隐形Bug总结:你系统里还有多少这样的问题 核心观点 · 大多数RAG系统存在一个被忽视的体验裂缝:检索语义、高亮关键词 · 搜"iPhone性能",文档讨论"A15仿生芯片"——检索理解意义,高亮不理解 · LLM能解决但成本毁灭:100并发用户500次LLM调用,每天可能数十万美元 · Zilliz用0.6B参数小模型 + Qwen3蒸馏(含推理解释步骤)解决了速度和成本问题 · 跨域泛化是关键指标:竞争对手领域内好领域外差,这个模型都好 · RAG体验完整链:检索→理解→展示→用户信任,多数系统只做好了前两个 公众号:一支烟花AI · 欢迎加入社群交流

26分钟
25
1个月前
评价

空空如也

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧