本期介绍 如果 AI 会让软件越来越同质化,英伟达的护城河还能持续多久? 讨论从一个很典型的追问开始: 英伟达是不是只是把设计交给台积电、把封装和整机交给供应链,自己最终仍然会变成一家被商品化的公司。 Jensen 的回答不是从单个芯片出发,而是从“电子如何变成 token”这个过程来解释英伟达的角色。 后面的讨论逐步展开到 agent 对工具软件的影响、供应链和 EUV 产能、CUDA 与安装基础、TPU / ASIC 替代、 资本开支与生态投资、价格分配、中国与出口限制,以及 AI 之外的长期业务。 如果你关心 AI 基础设施、半导体产业链、平台型公司的系统级护城河,这期会很值得听。 本期你会听到 * 为什么 Jensen 认为 AI 不会简单地把软件和英伟达都变成 commodity * agent 普及后,工具软件和工程软件为什么可能反而更值钱 * 英伟达的护城河为什么不只来自 GPU,而是算法、网络、软件栈和安装基础的组合 * 为什么云厂商和大模型公司仍然会持续尝试 TPU / ASIC * 英伟达如何看待 OpenAI、CoreWeave、生态投资与利润分配 * 对中国、开源模型、出口限制和美国技术扩散的判断 * 为什么 AI 之外,英伟达仍然有足够大的长期业务 Timeline * 00:00:00 开场:从“AI 会让软件商品化”追问到英伟达会不会也被商品化。 * 00:00:39 从电子到 token:Jensen 用一句话解释他如何定义英伟达的角色。 * 00:03:44 Agent 时代的工具红利:为什么他判断工具软件会因为智能体而不是被 AI 打垮。 * 00:09:08 供不应求与供应链:需求高涨时,真正的瓶颈往往遍布整条产业链。 * 00:11:33 提前几年投瓶颈:硅光、封装、测试、供应商协同如何被提前布局。 * 00:13:35 EUV 与产能扩张:制造能力到底有多难复制,哪些能力最稀缺。 * 00:21:26 根本优势不是摩尔定律:Blackwell 跳跃背后,是算法和系统设计一起重写。 * 00:28:01 CUDA 与安装基础:生态、可编程性和遍布全球的部署规模为什么仍是飞轮。 * 00:35:16 TPU / ASIC 为什么一直会出现:即使英伟达强势,客户也会持续寻找替代路径。 * 00:42:10 英伟达怎么花钱:从 OpenAI 到 CoreWeave,为什么生态投资是战略的一部分。 * 00:52:44 为什么不价高者得:Jensen 如何看待价格、配给和长期合作关系。 * 00:58:36 中国、开源与出口限制:为什么“保持对话”和“保持开放生态”比单纯封锁更重要。 * 01:03:58 AI 首先是并行计算问题:工艺节点重要,但不是全部,网络、内存和系统设计同样关键。 * 01:09:06 美国技术栈是不是好消息:如果全球模型都更适配非美硬件,真正的坏消息是什么。 * 01:22:45 给中国更多算力会怎样:这段讨论集中在市场、收益和国家竞争之间的拉扯。 * 01:28:12 全球扩散:印度、中东、非洲、东南亚为什么会成为美国技术栈的关键战场。 * 01:39:59 AI 之外的英伟达:计算光刻、量子化学、图形学和科学计算仍然是长期基本盘。 适合谁听 * 在看 AI 基础设施、半导体、云计算和大模型产业链的人 * 想理解英伟达护城河到底建立在什么地方的人 * 关注中美 AI 竞争、出口限制和全球技术扩散的人 * 想快速补一场高密度技术对谈的人 关于一支烟花: 一支烟花是一个高质量偏硬核的 AI 社区,成立于 2023 年,我们有 40+相关 AI 垂直社群, 欢迎听友们加入,通过播客公告可以添加小助手。 公众号:一支烟花 AI
本期嘉宾:罗锴(虚拟歌手制作人)、Brad强(一支烟花社区联合创始人)、不辣的皮皮(一支烟花社区联合创始人)、一路孙(常驻主持人) 本期观点: 罗锴AI虚拟歌手创作的早期探索 AI虚拟歌手MV的创作流程与技巧 AI虚拟歌手的人物IP打造逻辑 Suno AI生成音乐的使用技巧分享 对“审美是一种生产力”的解读 AI虚拟歌手MV的商业化可能性 AI虚拟歌手创作的未来探索方向
本期嘉宾:Vinlic(嘉宾)Unifuncs独立开发者、Brad强(一支烟花社区联合创始人)、不辣的皮皮(一支烟花社区联合创始人)、狂热(嘉宾)狂热AI社区主理人 本期观点: Unifuncs核心能力与竞品优势 深度搜索实用场景案例、研究能力与推广功能说明 对抗恶意SEO的核心手段 Unifuncs定价与福利说明 主持人自用深度研究案例分享 Unifuncs接入龙虾的方案说明 独立开发OPC经验分享
节目简介 你的RAG系统检索很准,但用户还是说"搜出来的东西找不到重点"? 这期我们聊一个大多数人没注意到的裂缝: 检索是语义化的,但高亮还在用关键词匹配。 搜"iPhone性能",文档讨论的是"A15仿生芯片"和"基准分数",什么都没高亮。 为什么LLM解决不了这个问题(每秒10美元成本),以及一个0.6B参数的小模型如何做到毫秒级语义高亮。 时间线 01:00 RAG系统的一个被忽视的问题 03:00 语义检索 vs 关键词高亮——裂缝在哪 06:00 3000字文档没有高亮:用户体验灾难 08:00 为什么LLM不行——每秒10美元的成本计算 12:00 Zilliz的解决方案:0.6B的小模型 15:00 为什么要用Qwen3解释推理步骤(内置质量检查) 17:00 知识蒸馏的力量:8x A100训练5小时 18:00 测试结果:跨域泛化才是关键 21:00 集成到Milvus:未来开箱即用 22:00 系列联动:从AI记忆到Paged Attention到语义高亮 24:30 隐形Bug总结:你系统里还有多少这样的问题 核心观点 · 大多数RAG系统存在一个被忽视的体验裂缝:检索语义、高亮关键词 · 搜"iPhone性能",文档讨论"A15仿生芯片"——检索理解意义,高亮不理解 · LLM能解决但成本毁灭:100并发用户500次LLM调用,每天可能数十万美元 · Zilliz用0.6B参数小模型 + Qwen3蒸馏(含推理解释步骤)解决了速度和成本问题 · 跨域泛化是关键指标:竞争对手领域内好领域外差,这个模型都好 · RAG体验完整链:检索→理解→展示→用户信任,多数系统只做好了前两个 公众号:一支烟花AI · 欢迎加入社群交流
节目简介 你以为AI推理慢是因为算力不够? 错了。 真正的瓶颈是内存,而且我们还在用一种极其浪费的方式使用它。 实测数据:传统方法只用到了分配内存的20-38%。 这一期我们从KV缓存讲起,聊到Paged Attention如何借鉴1980年代操作系统的虚拟内存技术,最终让vLLM实现2-4倍的吞吐量提升。 时间线 00:00 开场 · 一支烟花社区播客 01:00 为什么内存比算力先成为瓶颈 03:00 KV缓存是什么——写作文时记在纸边的词义 06:00 没有KV缓存会怎样——O(n²)的恐怖 08:30 传统实现为什么在浪费内存 12:00 那个震惊的数字:20-38%利用率 15:00 解决方案:1980年代的操作系统虚拟内存 16:30 Paged Attention三机制:块级分配、块表、共享前缀 21:00 结果:2-4倍吞吐量提升,内存浪费接近零 22:00 vLLM为什么成为生产首选 23:00 与系列联动:从存什么记忆到GPU里怎么放 核心观点 · KV缓存是LLM推理加速的核心——没有它每次生成都要重新计算所有之前token的注意力,O(n²)灾难 · 传统实现浪费严重:为每个请求预留最大长度空间,实际利用率只有20-38% · Paged Attention借鉴OS虚拟内存:KV缓存分成小块(通常16token一块),散落在GPU内存各处 · 块表 = 页表:每个请求维护一个映射,LLM不关心物理位置只看逻辑编号 · 共享前缀是最关键的优化:100个并发请求共享同一系统提示,KV缓存只存一份 · vLLM、TensorRT-LLM、SGLang都采用了类似机制 关于一支烟花 成立于 2023 年,硬核 AI 社区,业内口碑不错。 公众号:一支烟花AI 欢迎加入社群交流
【节目简介】 Meta AI联合多所顶尖大学发表了一篇让我看了一下午的论文——Hyperagents。 它不是又一个AI能做什么的功能展示,而是一个关于AI如何改进自身的根本性框架。 传统AI有一个隐藏的天花板:改进AI的那个系统,它的逻辑是人类写死的。 Hyperagents做的事情是:把这个天花板也交给AI自己来突破。 这一期我们深度拆解这篇论文,从算法原理到真实案例,再到它对软件工程、AI系统设计的深远影响。 【时间线】 01:00 为什么这篇论文让人坐不住 02:30 传统自我改进系统的两个组件:任务Agent与元Agent 04:00 元Agent的天花板:人类工程师写死的逻辑 06:00 Hyperagent的核心突破:元Agent也可以被修改 08:00 DGM-H = 达尔文 + 哥德尔,这两个人怎么凑在一起 09:30 人类的新角色:裁判而不是选手 10:00 达尔文-哥德尔机器的三阶段:生成、选择、存档 12:30 什么是垫脚石(Stepping Stones) 14:00 DGM-H四步核心循环详解 16:30 AI也需要计划生育:生育力惩罚与探索平衡 18:30 Agent用bash工具直接改自己的Python源代码 20:00 与AIO Sandbox那期的Skills持久记忆的关联 21:00 真实案例1:iterations_left变量——AI在管理自己的时间 23:30 真实案例2:自适应探索——Agent检测到自己卡住,主动增加冒险精神 26:00 真实案例3:偏见检测——BIAS DETECTED,AI监督自己的偏见 28:30 真实案例4:PerformanceTracker类——AI自主发明持久化跨会话知识库 31:00 真实案例5:IMPROVEMENTS.md——AI写给自己的进化日记 33:00 Richard Sutton《苦涩的教训》:人类设计的聪明才智总是输给通用计算 35:30 AlphaGo Zero vs AlphaGo:从预训练到从零强化学习 37:00 Hyperagents与Karpathy autoresearch的对比:一阶优化vs二阶优化 39:00 四期系列联动:林俊阳→Cailyn记忆踩坑→AIO Sandbox→Hyperagents 41:00 实验成本:每次运行8860万token,sonnet约500美元 42:30 软件工程已死?论文作者怎么说 44:00 悲观论:智能体优化成为AI的世界,人类是二等公民 45:30 乐观论:人类有比写底层代码更重要的事 47:00 晓曼的追问:谁来保证AI定义的好和人类真正需要的好一致? 48:30 从工具到基础设施到理论框架:锤子→脚手架→建筑设计图 ======================================== 【核心观点】 · 传统AI改进的天花板:元Agent的逻辑由人类写死,限制了系统能改进的程度 · Hyperagent的突破:任务Agent和元Agent集成在一个可编辑程序里,连改进逻辑本身也可以进化 · 元认知自我修正:AI不只寻找更好的解题方法,还寻找更好的寻找更好方法的方法 · AI在实验中自发产生的行为:感知剩余迭代数调整策略、检测自己是否卡住、发现自身偏见、发明跨会话记忆类、写进化日记 · 苦涩的教训的应用:人类设计的归纳偏置最终总是输给通用计算——Hyperagents把这个原则推到了元学习层面 · 与Karpathy的区别:autoresearch改一阶优化(怎么解题),DGM-H改二阶优化(怎么改进解题方法) · 人类角色:从写代码的工人变成设定评估标准的裁判——这是进化的契机,不是倒退 ======================================== 【提到的概念和术语】 Hyperagents — 将任务Agent和元Agent集成在可编辑程序中的自参照智能体 DGM-H — Darwin-Gödel Machine Hyperagent,本论文提出的框架 元认知自我修正 (Metacognitive Self-Modification) — AI寻找更好的寻找更好方法的方法 Archive — 存储历史成功Agent的档案库,作为未来进化的垫脚石 生育力 (Fertility) — 一个Agent已产生多少成功后代,用于平衡探索与利用 苦涩的教训 (Bitter Lesson) — Richard Sutton的经典文章,论证通用计算总是胜过人类设计的归纳偏置 归纳偏置 (Inductive Bias) — 人类为AI设计的学习先验和约束结构 达尔文主义特征 — 开放式探索+基于种群的进化方式 哥德尔式自指性 — 系统可以指涉并修改自身的能力 PerformanceTracker — 论文中AI自主发明的跨会话知识库类 ======================================== 【论文信息】 标题:Hyperagents: Self-Improving AI Systems arxiv:https://arxiv.org/abs/2603.19461 ======================================== 【关于一支烟花】 一支烟花是一个关注AI前沿动态的创作者社区 公众号:一支烟花AI 欢迎加入社群,和我们一起追踪AI最前沿的思想
【节目简介】 上期我们聊了AI记忆三个月踩坑(单一SaaS方案行不通),这期自然延伸: 如果记忆是问题,那Agent的运行环境本身又是怎么设计的? AIO Sandbox是火山引擎开源的All-in-One Agent沙箱——Browser、Shell、File、Jupyter、VSCode、MCP全打包进单个Docker容器。 这期我们从源码角度聊六个有意思的设计选择,以及它们背后的那条隐线:把AI当作真正的一等公民来设计接口。 【时间线】 00:00 关联上期AI记忆踩坑 01:30 为什么要有Agent沙箱 04:00 工具孤岛问题 06:30 单容器多进程:解决方案不是加新东西而是不拆开 10:30 Fern代码生成:API定义是唯一真相 13:00 双层SDK:80%简洁接口+20%逃生通 16:00 Shell vs Bash双轨:有状态vs无状态 19:00 中间截断:为AI设计的默认值 23:30 Browser Discriminated Union:接口形状决定集成成本 27:00 MCP Hub代理层:连接聚合与生命周期管理 31:30 自举式评测:产品即测试环境 34:00 Skills:Agent的持久化过程记忆 37:00 三层记忆体系:权重/Context/外部存储 40:00 加餐:Lost in the Middle+AI Native基础设施浪潮 43:00 三期大图景:理论→问题→工具 46:00 对架构师/SDK设计者/AI产品人的启示 ======================================== 【核心观点】 · 解决方案不是加新东西,而是不拆开——单容器多进程的反直觉设计 · 为80%的场景提供简洁接口,同时为20%的场景保留逃生通道 · 中间截断(而非截尾)——AI有"Lost in the Middle"注意力分布问题,保头保尾截中间不是省token而是帮AI对齐注意力 · 接口形状决定集成成本:Discriminated Union让模型输出直接反序列化,零适配 · Skills把解法存在第三层(文件系统),用软件工程的可靠性弥补LLM的不稳定性 · 自举式评测:当你的产品本身就是最好的测试工具时,不用它来测自己是一种浪费 · AI基础设施正在从"人类的辅助工具"变成"AI的运行环境"
14个月,10亿到190亿ARR,19倍增长。 Anthropic的增长负责人Amole Avisari在Lenny's Podcast分享了他们怎么做到的。 但这期不只是复述数字,我们要挖背后的东西:为什么约束反而成了优势? 为什么"正确摩擦"比"移除障碍"更有效? 为什么CASH项目意味着增长本身正在被AI接管? 以及一个脑损伤九个月无法工作的故事,如何改变了一个人对"约束中的自由"的理解。 【时间线】 01:00 14个月19倍增长:数字意味着什么 03:30 对比Atlassian/Palantir/Snowflake 15-20年的旅程 05:00 Anthropic的特殊处境:融资最少的玩家 06:30 Denman 2021年的赌注:ChatGPT发布前就押注AI编程 08:30 聚焦战略:商业+研究双轮驱动 10:00 70%是救火,30%是增长:成功灾难是什么 12:00 能力过剩(Capability Overhang):模型快于产品 13:30 正确摩擦哲学:Mercury的反直觉实验 16:00 CASH项目:Anthropic用Claude来做增长 18:30 Claude Code让工程师2-3倍提效,但PM被挤压了 20:00 两周规则:迷你PM的诞生 22:00 Notebook频道:公司级记忆层 24:00 Co-work:AI模拟你经理的视角给你反馈 26:00 PBC公益公司:是商业创新还是公关? 27:30 安全与增长的博弈:有聊天版Claude为何不发布 29:00 脑损伤九个月:约束中的自由 30:00 逆直觉的勇气 · 加入一支烟花社区 ======================================== 【三条贯穿线索】 · 约束中的自由 — 无论是公司战略(融资最少反而聚焦最清晰)还是个人生活(脑损伤反而带来平静),约束不是限制而是聚焦 · 正确摩擦 — 短期看是损失的决策(不发布产品、忽视指标),长期看是护城河 · 逆直觉的勇气 — AI时代最稀缺的不是聪明,而是在正确方向上坚持反直觉决策的勇气 ======================================== 【关键数据】 10亿→190亿ARR,14个月,19倍 Atlassian/Palantir/Snowflake:15-20年达到45-60亿ARR Claude Code让工程师生产力2-3倍提升 CASH项目:目前初级PM水平,在Opus 4.5/4.6运行 Amole的Co-work:每天监控20-25个关键指标 脑损伤:9个月无法工作,至今未100%痊愈 ======================================== 【关于一支烟花】 公众号:一支烟花AI 也欢迎加入社群交流
【节目简介】 上期我们聊了林俊阳的"从Reasoning到Agentic Thinking",他说记忆层是Agent时代最重要的架构组件。 这期我们看一个真实案例——Momo团队三个月试了三种方法构建企业级AI记忆,全是血泪教训。 自下而上索引走红后翻车,自上而下提取不准确,最终从客户数据切入找到方向。 核心问题至今未解: 如何从非结构化数据中提取结构化记忆? 【时间线】 00:00 开场 · 关联上期林俊阳"记忆层最重要" 01:30 为什么AI记忆这么重要 · context window不是真正的记忆 03:00 方法一:自下而上输入索引 · 索引所有应用输入 05:00 走红→翻车:用户引导太重+见树不见林 06:30 知识图谱是过度设计?放弃回归pgvector 08:30 方法二:自上而下提取 · 先推断项目再填充细节 10:30 产品问题:设置耗时+token成本+用户问"然后呢" 12:00 技术问题:提取不准确 · Claude Code同样踩坑 14:00 方法三:从PostHog客户数据入手 15:30 自动客户画像+流失分析 · 先让用户看到价值 17:00 核心教训:非结构化→结构化的根本难题 19:00 单一SaaS记忆方案永远行不通 · 需要持续构建+人为反馈 20:30 Agent团队需要持久共享可查询的记忆 ======================================== 【核心观点】 · context window是短期记忆,真正的记忆是跨会话、持久、可查询的 · 自下而上能索引信号但无法重建团队思维模式——高层思维从未被明确记录 · 知识图谱在多跳查询场景下可能是过度设计,pgvector更实用 · 从非结构化数据提取结构化记忆是根本难题——所有方法都卡在这里 · Claude Code的CLAUDE.md就是不断压缩的md文件,说明记忆问题远未解决 · 先从垂直场景切入让用户看到价值,再扩展——通用记忆太难做 · Agent的瓶颈不是模型能力,而是记忆和环境 ======================================== 【关于一支烟花】 一支烟花是一个关注AI前沿动态的创作者社区 公众号:一支烟花AI 欢迎加入社群交流
【节目简介】 Qwen团队前核心成员林俊阳(已离职)发表了一篇引发全行业思考的文章: AI正在从"推理思维"转向"能动思维"——不是想得更久,而是为了行动而思考。 本期播客深度拆解这篇文章的六大核心论点,从o1/R1的教训,到Qwen3合并模式的坦诚反思,再到Agentic AI基础设施的全新挑战。 【时间线】 01:00 林俊阳是谁 · 为什么这篇文章重要 02:30 o1和R1的崛起教会了什么 · 确定性反馈信号 05:00 合并思考与指令模式 · 两种目标打架 07:30 Qwen3的坦诚反思 · "我们没有做对所有的事情" 09:30 Anthropic的集成哲学 · 不是开关而是连续体 11:30 Agentic Thinking核心 · 从考试到打游戏 14:00 五个全新问题 · 何时停止思考 何时行动 16:00 Agent RL vs 推理RL · 安静教室vs嘈杂工地 18:30 环境成为一等公民 · 数据为王→环境为王 20:30 奖励攻击 · AI学会作弊 23:00 多Agent系统的未来 · 从模型到Agent到系统 25:00 竞争优势来源变了 · 环境设计+系统集成 26:30 AI的下一步不是想得更久而是做得更好 ======================================== 【核心观点】 · 推理思维问"模型能否想够久",能动思维问"模型能否边想边做" · 合并思考和指令本质上是两种互相矛盾的行为目标——像让一个人同时当学者和客服 · Qwen3的教训:分离仍然有吸引力,合并的描述比执行容易得多 · Anthropic的方向是有用的纠正:思考应该由目标工作负载来塑造 · Agent RL的基础设施远比推理RL复杂——环境不再是验证器而是训练系统的一部分 · 奖励攻击是Agent时代最大隐患:更好的工具=更大的作弊攻击面 · 竞争优势从RL算法转向环境设计、系统集成、控制装置工程 · 从训练模型→训练Agent→训练系统 ======================================== 【关于一支烟花】 一支烟花是一个关注AI前沿动态的创作者社区 公众号:一支烟花AI 欢迎加入社群交流
【节目简介】 Cursor发布全新界面使用量翻倍,Devin实现了自主自我改进让人下巴掉了,Marc Andreessen预言浏览器之死,Box CEO说人类认知有物理极限,WHOOP起诉了一个免费健康App。 ======================================== 【时间线】 01:30 Cursor全新界面 · Ryo Lu的设计哲学 04:00 Devin实现agentic self improvement · 模型泛化超预期 07:00 soul.md人格工程 · 把前任做成agent skill 09:30 产品角色重定义 · PM和PMM该合并吗 11:30 Aaron Levie · 人类认知的物理极限与管理层级 14:00 现在管理agent依然需要人类心智劳动 16:00 Marc Andreessen · 浏览器之死 18:30 80年一夜成名 · 四大基础突破都在工作 21:00 AI adoption会比想象慢 · doomers太乐观了 22:30 Garry Tan怒怼codegen luddites · PageSpeed 95分 24:30 Anthropic锁死开源争议 · Peter Steinberger吐槽 26:30 Claude发布Microsoft 365 connectors 27:30 WHOOP起诉Bevel Health · We will build not resort to lawfare 29:00 总结:突破、重构、争议 ======================================== 【核心观点】 · Devin实现了agentic self improvement——复制粘贴博客就能一次性完整实现 · 模型泛化能力超出预期——out of distribution也能Just Work · soul.md是人格工程的开端——AI不应该是客服机器人而是有个性的真人 · 人类认知有物理极限——管理层级不是低效而是必要,但agent可以突破这个限制 · 浏览器不是消失了而是变成agent的工具——用户不再直接操作浏览器 · AI是80 year overnight success——不是泡沫而是长期积累的爆发 · AI adoption会比想象慢——技术可行不等于80亿人改变行为 · Anthropic在复制开源功能后锁死生态——围墙花园争议 【关于一支烟花】 一支烟花是一个关注AI前沿动态的创作者社区 公众号:一支烟花AI 欢迎加入社群交流
Andrej Karpathy开源了autoresearch——一个仅630行Python代码的框架,让AI Agent自主运行机器学习研究循环: 读取策略、修改代码、跑实验、评估结果、只保留改进。 两天跑了数百个实验,在已经优化到位的项目上又提升了11%。 本期播客深度拆解这个项目的原理、实践和它带来的深层启示。 【时间线】 Part 1 · 项目介绍与原理分析 00:00 开场 · 一支烟花社区播客介绍 01:30 Karpathy是谁——从OpenAI到Tesla到Eureka Labs 03:00 autoresearch是什么——630行极简框架的定位 05:00 The Karpathy Loop——读取策略→修改代码→限时实验→评估→提交 07:00 program.md——用Markdown编程,Programming the Why not the How 09:00 极简设计哲学——为什么630行就够了 Part 2 · 应用实践与真实效果 10:30 两天数百个实验,11%效率提升意味着什么 13:00 Agent发现了人类研究者遗漏的优化 15:00 递归自我改进——距离真正的AGI有多远 17:00 超越ML的通用性——营销文案、交易策略、家居自动化 19:00 开源社区的爆发式反应 20:30 Eureka Labs与AI原生教育 Part 3 · 启示与思考 21:30 从写代码到编排Agent——Manifesting取代Coding 23:00 研究者角色转变——从做实验到设计实验规则 25:00 Karpathy Loop作为通用设计模式 26:30 对AI创业者的启示——设计让AI自主运转的系统 28:00 一个人+正确架构 = 过去一个团队 29:30 autoresearch是Agency的技术化实现 30:00 总结 · 加入一支烟花社区交流 【核心观点】 · The Karpathy Loop:定义目标→设定约束→Agent沙箱自主探索→只保留改进——这是一种通用设计模式 · program.md是革命性创新:不写Python编程,用Markdown定义Why,Agent负责How · 630行代码的极简哲学——复杂不等于强大,少即是多 · 两天跑数百个实验提升11%——AI发现了人类研究者遗漏的优化方向 · 通用性远超ML:任何有可编辑资产+可度量输出+限时评估的系统都适用 · 人的角色从实验者变成实验设计者——从写代码到编排Agent · autoresearch是Agency概念的技术化实现——把人的主观能动性编码到系统架构中 ======================================== 【提到的关键概念】 autoresearch — Karpathy开源的自动化ML研究框架(630行Python) The Karpathy Loop — 自主研究循环的设计模式 program.md — 用Markdown定义研究目标和约束的配置文件 Recursive Self-Improvement — AI递归自我改进 Eureka Labs — Karpathy创办的AI原生教育公司 Dobby — Karpathy实验的家居自动化Agent Agency — 主观能动性,autoresearch的底层哲学 ======================================== 【关于一支烟花】 一支烟花是一个关注AI前沿动态的创作者社区 追踪硅谷最新AI技术趋势,用犀利视角解读行业变化 公众号:一支烟花AI 欢迎加入社群交流
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧