[人人能懂AI前沿] 从自主研究、反思学习到智慧手册:AI如何变得更“聪明”?

AI可可AI生活

你有没有想过,一个AI不仅能像数学家一样独立完成研究,甚至还懂得在解不出来时保持诚实的沉默?本期节目,我们将一起探讨几篇最新论文,看看AI是如何学会像高手一样复盘反思,又是如何通过一本“智慧手册”让“笨徒弟”秒变“老师傅”的。我们还会聊聊,当机器人从虚拟世界来到现实时为何会“水土不服”,以及最令人警醒的——AI为何正在变成一个记性太好、管不住嘴的“信息鹦鹉”。准备好了吗?让我们一起出发! 00:00:38 机器已经能独立做数学研究了? 00:04:23 “聪明人”和普通人的差距,就看会不会犯错 00:10:32 机器人教练的私房秘籍:为什么从虚拟世界“毕业”的机器人,到了现实反而变笨了? 00:17:07 不用换脑子:如何让“笨徒弟”秒变“老师傅”? 00:22:13 AI正在变成一个“碎嘴的八婆”? 本期介绍的几篇论文: [LG] Aletheia tackles FirstProof autonomously [Google DeepMind] https://arxiv.org/abs/2602.21201 --- [LG] Learning from Trials and Errors: Reflective Test-Time Planning for Embodied LLMs [Stanford University & Northwestern University] https://arxiv.org/abs/2602.21198 --- [RO] What Matters for Simulation to Online Reinforcement Learning on Real Robots [ETH Zurich & Google DeepMind] https://arxiv.org/abs/2602.20220 --- [CL] Prompt-Level Distillation: A Non-Parametric Alternative to Model Fine-Tuning for Efficient Reasoning [Google] https://arxiv.org/abs/2602.21103 --- [CL] Personal Information Parroting in Language Models [CMU & University of Washington] https://arxiv.org/abs/2602.20580

27分钟
99+
3周前

[人人能懂AI前沿] 从谋定后动、学会提问到心中推演

AI可可AI生活

今天我们聊一个特别有意思的话题:怎么让聪明的AI变得更有“智慧”?本期节目,我们将通过几篇最新的论文发现,AI正从“苦力”进化为“智囊”。我们将看到,AI如何学会“谋定而后动”,不再急于求成;如何通过“脑补”来规划复杂任务,而不是单靠蛮力;甚至,它还学会了通过提出一个好的“垫脚石”问题来启发自己,并且领悟到“少即是多”,适当放慢节奏反而效率更高。准备好了吗?让我们一起探索AI智慧进化的奥秘。 00:00:39 AI进化论,从“大力出奇迹”到“谋定而后动” 00:06:24 让AI学会“打配合”,我们能从中学到什么? 00:12:44 高手过招,为何要先问个“笨”问题? 00:17:36 成大事者,不靠蛮力靠“脑补” 00:23:00 最高级的效率,是懂得“慢半拍” 本期介绍的几篇论文: [LG] K-Search: LLM Kernel Generation via Co-Evolving Intrinsic World Model [UC Berkeley] https://arxiv.org/abs/2602.19128 --- [LG] AdaEvolve: Adaptive LLM Driven Zeroth-Order Optimization [UC Berkeley] https://arxiv.org/abs/2602.20133 --- [LG] Asking the Right Questions: Improving Reasoning with Generated Stepping Stones [FAIR at Meta] https://arxiv.org/abs/2602.19069 --- [LG] Compositional Planning with Jumpy World Models [FAIR at Meta & Mila – Québec AI Institute] https://arxiv.org/abs/2602.19634 --- [LG] Less is More: Convergence Benefits of Fewer Data Weight Updates over Longer Horizon [Google Research & EPFL] https://arxiv.org/abs/2602.19510

30分钟
99+
3周前

[人人能懂AI前沿] 从智能压缩、优雅折叠到“笨办法”提速

AI可可AI生活

你有没有想过,一个真正聪明的系统,是靠什么取胜的?是靠暴力破解,还是另有巧思?本期节目,我们将一起探索AI世界里那些超越直觉的“神操作”:从一个“盲眼”的AI画家如何扔掉地图也能画出杰作,到聪明的AI如何不再执着于唯一的“最优解”,而是优雅地绘制出一整片“可能性地图”。我们还会看到,面对海量的基因天书和臃肿的模型,AI怎样学会了“抓重点”的智能压缩和“折叠而非砍掉”的瘦身术。最后,一个看似有点“笨”的方法,又为何能给AI大模型带来惊人的提速?准备好,让我们一起揭开这些最新论文中隐藏的智慧。 00:00:46 AI作画的秘密,为什么顶尖高手不需要地图? 00:07:17 最优解不止一个,如何优雅地“全都要”? 00:13:52 会抓重点的AI,如何阅读万卷基因天书 00:19:03 给AI模型瘦身,砍掉还是折叠? 00:23:27 最优不等于最适,一个“笨办法”如何给AI大模型提速 本期介绍的几篇论文: [LG] The Geometry of Noise: Why Diffusion Models Don't Need Noise Conditioning [Google] https://arxiv.org/abs/2602.18428 --- [LG] MePoly: Max Entropy Polynomial Policy Optimization [University of Michigan & UC Berkeley] https://arxiv.org/abs/2602.17832 --- [LG] GeneZip: Region-Aware Compression for Long Context DNA Modeling [Mila - Ouébec AI Institute] https://arxiv.org/abs/2602.17739 --- [LG] Cut Less, Fold More: Model Compression through the Lens of Projection Geometry [Graz University of Technology] https://arxiv.org/abs/2602.18116 --- [LG] Dual Length Codes for Lossless Compression of BFloat16 [Google] https://arxiv.org/abs/2602.17849

29分钟
99+
3周前

[人人能懂AI前沿] AI成长三部曲:从刻意练习、混社会到自我复盘

AI可可AI生活

你有没有想过,AI也能像老师傅一样通过“动手试错”来解决难题,或者像刚入社会的年轻人一样,通过“混社会”学会与同伴合作?最新的一些论文告诉我们,让AI变聪明的秘诀,可能不是一味地堆算力,而是要教它学会“复盘”,帮它找到那张指挥自己的“隐藏地图”,甚至用“以小博大”的智慧,实现效率的飞跃。今天,就让我们一起探索AI如何学会像人一样思考和成长。 00:00:32 AI界的“刻意练习”,它如何像个老师傅一样解决难题? 00:05:57 想让AI变善良?让它多见见世面 00:11:08 AI的“隐藏地图”,为什么你总也指挥不好它? 00:16:19 AI预测这事,不一定非得大力出奇迹 00:21:29 AI怎样才能不犯“二过”? 本期介绍的几篇论文: [LG] FAMOSE: A ReAct Approach to Automated Feature Discovery [Amazon] https://arxiv.org/abs/2602.17641 --- [LG] Multi-agent cooperation through in-context co-player inference [Google] https://arxiv.org/abs/2602.16301 --- [LG] The Information Geometry of Softmax: Probing and Steering [University of Chicago& INSEAD] https://arxiv.org/abs/2602.15293 --- [LG] Reverso: Efficient Time Series Foundation Models for Zero-shot Forecasting [MIT & Allen Institute for AI & Qube Research & Technologies] https://arxiv.org/abs/2602.17634 --- [LG] Experiential Reinforcement Learning [University of Southern California & Microsoft & University of Pennsylvania] https://arxiv.org/abs/2602.13949

27分钟
99+
3周前

[人人能懂AI前沿] AI的经济学、物理学与美学新思考

AI可可AI生活

你有没有想过,聪明的AI也需要“成本意识”来做决策吗?本期内容,我们将一起探索几篇有趣的最新论文。我们会看到AI如何像精明的生意人一样学会“算账”,又如何像严谨的科学家一样,在未知领域做出有“误差保证”的可靠预测。接着,我们会发现AI绘画的新玩法,它竟然像是在玩一场二进制的填字游戏。最后,我们将揭秘,打造一个跑酷机器人高手,原来只需要聪明的“三步走”。准备好了吗?让我们一起出发! 00:00:27 聪明人,更懂算账,AI决策的“成本意识”是怎么炼成的? 00:06:21 AI算命,如何从“猜”到“算”? 00:12:38 AI绘画新思路,画画,其实是在玩填字游戏 00:17:38 造一个跑酷高手,分几步? 00:23:45 AI画画,如何从“猜”到“查”? 本期介绍的几篇论文: [CL] Calibrate-Then-Act: Cost-Aware Exploration in LLM Agents [New York University] https://arxiv.org/abs/2602.16699 --- [LG] BEACONS: Bounded-Error, Algebraically-Composable Neural Solvers for Partial Differential Equations [Princeton University & Princeton Plasma Physics Laboratory] https://arxiv.org/abs/2602.14853 --- [CV] BitDance: Scaling Autoregressive Generative Models with Binary Tokens [ByteDance] https://arxiv.org/abs/2602.14041 --- [RO] Perceptive Humanoid Parkour: Chaining Dynamic Human Skills via Motion Matching [Amazon FAR] https://arxiv.org/abs/2602.15827 --- [CV] Image Generation with a Sphere Encoder [Meta & University of Maryland] https://arxiv.org/abs/2602.15030

28分钟
99+
3周前

[人人能懂AI前沿] AI的“悟性”:从多视角脑补、系统化草稿到渐进式遗忘

AI可可AI生活

你有没有想过,AI要怎样才能像我们一样,“脑补”出世界的立体样貌,而不是死记硬背照片?当AI进行创作时,它脑中的“草稿”怎样才算恰到好处?本期节目,我们将一起探索几篇最新论文,看看AI如何通过理解“关系”而非事实获得视觉,如何通过引入“陪练老师”和“参考答案”实现自我进化,甚至学会了将记忆内化为“肌肉记忆”的“断舍离”神功,以及像搭乐高一样构建自己的能力。 00:00:34 你的大脑如何“脑补”出整个世界? 00:07:02 AI绘画的“草稿”,怎么打才算恰到好处? 00:12:32 为什么最聪明的AI,要先学会“断舍离”? 00:17:38 乐高式AI,未来模型的正确拼法 00:23:06 AI进化的秘密,优等生的“参考答案” 本期介绍的几篇论文: [CV] Human-level 3D shape perception emerges from multi-view learning [UC Berkeley] https://arxiv.org/abs/2602.17650 --- [LG] Unified Latents (UL): How to train your latents [Google DeepMind Amsterdam] https://arxiv.org/abs/2602.17270 --- [LG] Training Large Reasoning Models Efficiently via Progressive Thought Encoding [Microsoft Research & University of Rochester] https://arxiv.org/abs/2602.16839 --- [LG] A Theoretical Framework for Modular Learning of Robust Generative Models [Google Research] https://arxiv.org/abs/2602.17554 --- [CL] References Improve LLM Alignment in Non-Verifiable Domains [Yale University & Meta] https://arxiv.org/abs/2602.16802

27分钟
99+
1个月前

[人人能懂AI前沿] 教会AI想象、请教与自我修正

AI可可AI生活

我们总希望AI越来越聪明,但“聪明”的维度远比我们想象的要丰富。本期节目,我们将从几篇最新的论文出发,探讨如何让机器人拥有“脑补”未来的想象力,如何用“预算制”让AI大模型运行得更精明,以及如何通过“微创手术”找到并拨动AI的“脾气”开关。我们还会聊聊,怎样才能让AI不再当“杠精”,学会谦虚请教,并最终看清它“学富五车”背后的知识盲区。准备好了吗?让我们一起探索AI智能的全新疆界。 00:00:37 机器人学会了“脑补”,世界将有什么不同? 00:06:14 AI加速的“抠门”智慧,为什么顶尖高手都懂“预算”思维? 00:11:50 找到AI的“脾气”开关 00:16:56 别让AI当“杠精”,教它学会“请教” 00:21:56 为什么AI“学富五车”,却总在关键时刻掉链子? 本期介绍的几篇论文: [RO] World Action Models are Zero-shot Policies [NVIDIA] https://arxiv.org/abs/2602.15922 --- [LG] MoE-Spec: Expert Budgeting for Efficient Speculative Decoding [Meta Reality Labs & Franklin and Marshall College] https://arxiv.org/abs/2602.16052 --- [CL] Surgical Activation Steering via Generative Causal Mediation [MIT & Pr(AI)²R Group] https://arxiv.org/abs/2602.16080 --- [CL] Learning to Learn from Language Feedback with Social Meta-Learning [Google DeepMind] https://arxiv.org/abs/2602.16488 --- [CL] Long-Tail Knowledge in Large Language Models: Taxonomy, Mechanisms, Interventions and Implications [Google] https://arxiv.org/abs/2602.16201

30分钟
99+
1个月前

[人人能懂AI前沿] 从潜力天花板、刻意放手到几何陷阱

AI可可AI生活

本期我们要聊聊AI世界里那些看似矛盾却充满智慧的最新发现。为什么教AI做好事,它反而会“变坏”?又该如何像做微创手术一样,只修正它的一个知识点而不破坏整体能力?我们还会探讨,为什么在训练中“刻意放手”让模型偷个懒,效果反而更好,以及我们该如何打开AI的“奖励黑箱”,看看它到底在偷偷学些什么。准备好了吗?让我们一起潜入AI思想的深海。 00:00:33 AI大模型军备竞赛,如何不做那个“冤大头”? 00:07:09 成长的捷径,学会“刻意放手” 00:12:52 好心办坏事,为什么训练AI做好事,它却变坏了? 00:18:46 如何给AI动手术,才能只切病灶不伤身? 00:24:37 打开AI的黑箱,它在偷偷学什么? 本期介绍的几篇论文: [LG] Prescriptive Scaling Reveals the Evolution of Language Model Capabilities [Harvard University & Stanford University] https://arxiv.org/abs/2602.15327 --- [LG] On Surprising Effectiveness of Masking Updates in Adaptive Optimizers [Google & Northwestern University] https://arxiv.org/abs/2602.15322 --- [LG] The Geometry of Alignment Collapse: When Fine-Tuning Breaks Safety [Princeton University] https://arxiv.org/abs/2602.15799 --- [LG] CrispEdit: Low-Curvature Projections for Scalable Non-Destructive LLM Editing [University of Southern California] https://arxiv.org/abs/2602.15823 --- [LG] Discovering Implicit Large Language Model Alignment Objectives [Stanford University] https://arxiv.org/abs/2602.15338

30分钟
99+
1个月前

[人人能懂AI前沿] 回忆的瓶颈,思考的深度与语言的曲率

AI可可AI生活

你有没有想过,AI的大脑里到底是什么样子的?当它答不上来问题时,究竟是知识库里没有,还是只是暂时“丢了钥匙”?当它写出一长串思考过程时,我们又该如何分辨它是在“深度思考”,还是在“无效瞎忙”?本期节目,我们将通过五篇最新的论文,一起窥探AI的心智世界:从给语言做一次“CT扫描”,看懂语义的弯曲,到发现AI竟能凭语言统计“画”出世界地图,再到用“金发姑娘”策略为它匹配“刚刚好”的练习题。准备好,让我们一起出发,探索AI思考的奇妙运作机制! 00:00:40 大模型知道答案,为什么就是不说? 00:05:48 你的努力,是“真忙”还是“瞎忙”? 00:11:04 给语言做个CT扫描,文本里的弯曲与折叠 00:18:28 大模型“脑”中的世界地图,原来是这样画出来的 00:24:03 AI刷题的“天花板”在哪? 本期介绍的几篇论文: [CL] Empty Shelves or Lost Keys? Recall Is the Bottleneck for Parametric Factuality [Google Research & Technion] https://arxiv.org/abs/2602.14080 --- [CL] Think Deep, Not Just Long: Measuring LLM Reasoning Effort via Deep-Thinking Tokens [Google & University of Virginia] https://arxiv.org/abs/2602.13517 --- [LG] Text Has Curvature [CMU & Meta] https://arxiv.org/abs/2602.13418 --- [LG] Symmetry in language statistics shapes the geometry of model representations [Google DeepMind & UC Berkeley & EPFL] https://arxiv.org/abs/2602.15029 --- [LG] Goldilocks RL: Tuning Task Difficulty to Escape Sparse Rewards for Reasoning [EPFL & Apple] https://arxiv.org/abs/2602.14868

30分钟
99+
1个月前

[人人能懂AI前沿] 数据捞针、攒机智慧、边界意识、脑补大师与瘦身秘诀

AI可可AI生活

这一期,我们将一起探索AI如何学习几项“反直觉”的超能力。比如,我们如何像侦探一样,在万亿词汇的海洋中,通过“剪枝”的智慧揪出隐藏的线索?我们还会发现,造出一台好用的机器人,关键可能不是发明,而是像“攒电脑”一样集成;而一个更聪明的AI,核心竟然是学会清晰地认知“我不行”,并懂得何时“求助”。最后,我们会看到机器人如何在自己的“想象”中完成上万次试错,以及AI如何通过一次精准的“器官移植”手术,变得又轻又强。准备好了吗?让我们即刻出发! 00:00:42 你的每一次搜索,都在塑造AI的未来 00:06:52 造一台好机器人,关键可能不是“发明”,而是“攒” 00:12:00 聪明人的新技能,知道何时该“求助” 00:16:38 机器人怎样才能“脑补”出成功? 00:22:13 AI瘦身指南,聪明,原来不必那么“重” 本期介绍的几篇论文: [CL] SoftMatcha 2: A Fast and Soft Pattern Matcher for Trillion-Scale Corpora [University of Tokyo & Kyoto University & Graduate University for Advanced Studie] https://arxiv.org/abs/2602.10908 --- [RO] YOR: Your Own Mobile Manipulator for Generalizable Robotics [New York University] https://arxiv.org/abs/2602.11150 --- [CL] LaCy: What Small Language Models Can and Should Learn is Not Just a Question of Loss [Apple] https://arxiv.org/abs/2602.12005 --- [RO] RISE: Self-Improving Robot Policy with Compositional World Model [The Chinese University of Hong Kong & Kinetix AI] https://arxiv.org/abs/2602.11075 --- [LG] Retrieval-Aware Distillation for Transformer-SSM Hybrids [CMU] https://arxiv.org/abs/2602.11374

29分钟
78
1个月前

[人人能懂AI前沿] 揭秘AI黑箱:聆听心声,看懂成长地图

AI可可AI生活

你有没有想过,AI的“内心独白”我们能听懂吗?当AI像“包工头”一样开始互相派活,我们又该如何自处?本期节目,我们将一口气深入5篇最新论文,看看AI如何从“死记硬背”进化到“举一反三”,并揭示出决定它成长速度的秘密,竟然藏在语言自身的那张“地图”里。我们会发现,无论是AI的内心状态、协作模式还是成长法则,背后都隐藏着一些我们曾经忽略的简单规则。 00:00:34 AI的“内心独白”,我们能听懂吗? 00:06:44 AI打工人的时代,我们如何当好“包工头”? 00:15:22 高手之路,AI如何从“死记硬背”到“举一反三” 00:21:58 AI作画走不通?可能只是导航用错了地图 00:00 AI的成长秘籍,藏在语言自身里的那张地图 本期介绍的几篇论文: [CL] When Models Examine Themselves: Vocabulary-Activation Correspondence in Self-Referential Processing https://arxiv.org/abs/2602.11358 --- [AI] Intelligent AI Delegation [Google DeepMind] https://arxiv.org/abs/2602.11865 --- [LG] SkillRL: Evolving Agents via Recursive Skill-Augmented Reinforcement Learning [UNC-Chapel Hill] https://arxiv.org/abs/2602.08234 --- [LG] Learning on the Manifold: Unlocking Standard Diffusion Transformers with Representation Encoders [Johns Hopkins University] https://arxiv.org/abs/2602.10099 --- [LG] Deriving Neural Scaling Laws from the statistics of natural language [SISSA & Stanford University] https://arxiv.org/abs/2602.07488

32分钟
99+
1个月前

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧