AI可可AI生活 - 节目列表

[人人能懂AI前沿] 从高级说服、多元推理到策略剪枝:AI认知革命进行时

AI可可AI生活

你有没有想过,AI是在帮你分析,还是在高级地“说服”你?我们总希望AI像个完美的老师,但如果它只会给标准答案,甚至连老师的偏见都一并继承,那会怎样?而为了让AI学得更好,我们不仅要为它的“记忆”做体检,甚至还要教会它一项人类的高级智慧:学会放弃。今天,我们就从五篇最新的论文出发,看看AI是如何在说服、学习和思考的边界上,进行着一场静悄悄的认知革命。 00:00:33 当AI学会了“高级说服”,你的大脑还够用吗? 00:06:00 如何给AI做一次“记忆体检”? 00:12:34 AI只会“标准答案”?那可就危险了 00:18:04 高手过招,如何避免被师傅“带偏”? 00:23:19 训练AI的真谛,学会放弃,才能得到更多 本期介绍的几篇论文: [AI] Evaluating Language Models for Harmful Manipulation [Google DeepMind & Google] https://arxiv.org/abs/2603.25326 --- [CL] Estimating near-verbatim extraction risk in language models with decoding-constrained beam search [Stanford & Cornell] https://arxiv.org/abs/2603.24917 --- [LG] Reaching Beyond the Mode: RL for Distributional Reasoning in Language Models [MIT] https://arxiv.org/abs/2603.24844 --- [LG] Residual-as-Teacher: Mitigating Bias Propagation in Student--Teacher Estimation [MIT] https://arxiv.org/abs/2603.25466 --- [CL] Prune as You Generate: Online Rollout Pruning for Faster and Better RLVR [University of Illinois at Urbana-Champaign] https://arxiv.org/abs/2603.24840

29分钟
99+
1个月前

[人人能懂AI前沿] 从动态课程、前瞻记忆到思考成本

AI可可AI生活

AI的自我进化,听起来很酷,但最新论文告诉我们,AI学徒也需要一位聪明的“教练”为它精心设计训练计划,否则刷再多题也难成大器。我们还会揭示一个奇怪的现象:为什么让AI向完美的自己“抄作业”,反而可能让它在关键的推理任务上变笨?而在使用AI时,你是否发现它总“忘事”,或者那个标价最便宜的模型,最后反而让你花了最多的钱?今天,我们就从五篇最新论文出发,聊聊AI那些出人意料的“成长烦恼”和“使用陷阱”。 00:00:38 AI“学徒”的成长烦恼,为什么聪明的大模型也需要好师傅? 00:06:54 聪明反被聪明误,为什么教AI“抄作业”反而会让它变笨? 00:12:11 你的“私人教练”,不该只会题海战术 00:18:11 你以为的便宜,可能让你花得更多 00:23:43 你的AI“听话”吗?小心它忙起来就忘了 本期介绍的几篇论文: [LG] Understanding the Challenges in Iterative Generative Optimization with LLMs [CNRS & Stanford University & CMU] https://arxiv.org/abs/2603.23994 --- [CL] Why Does Self-Distillation (Sometimes) Degrade the Reasoning Capability of LLMs? [Microsoft Research & Seoul National University] https://arxiv.org/abs/2603.24472 --- [LG] A Deep Dive into Scaling RL for Code Generation with Synthetic Data and Curricula [Meta FAIR & University of Tübingen] https://arxiv.org/abs/2603.24202 --- [LG] The Price Reversal Phenomenon: When Cheaper Reasoning Models End Up Costing More [Stanford University & UC Berkeley & CMU] https://arxiv.org/abs/2603.23971 --- [CL] Did You Forget What I Asked? Prospective Memory Failures in Large Language Models [Microsoft] https://arxiv.org/abs/2603.23530

30分钟
99+
1个月前

[人人能懂AI前沿] 浓缩、自省、通用、专注、稀疏:AI的五项新技能

AI可可AI生活

你有没有想过,一个聪明的AI要如何审视和优化自己的工作方法,实现“自我进化”?怎样才能把一大堆“专家模型”的智慧,完美浓缩进你手机里那个小小的芯片中?本期节目,我们将一口气解锁五篇最新论文,看看AI如何通过“先加后减”的智慧炼成全才,如何用“元认知”打破思维僵局,又是如何学会“聪明的偷懒”,在关键处全力以赴,在无聊处“摸鱼”省电。准备好了吗?让我们一起开启这场精彩的AI思想之旅! 00:00:37 AI界的“浓缩”智慧,先做加法,再做减法 00:05:00 一个聪明的系统,如何变得更聪明? 00:11:12 AI“通才”,如何用一把钥匙,打开物理世界的多扇大门? 00:16:39 AI变聪明的秘密,不是看得多,而是看得准 00:21:18 大模型“瘦身”记,聪明地偷个懒 本期介绍的几篇论文: [CV] Efficient Universal Perception Encoder [Meta Reality Labs & FAIR at Meta] https://arxiv.org/abs/2603.22387 --- [AI] Bilevel Autoresearch: Meta-Autoresearching Itself https://arxiv.org/abs/2603.23420 --- [LG] UniFluids: Unified Neural Operator Learning with Conditional Flow-matching [Chinese Academy of Sciences & Microsoft Research Asia] https://arxiv.org/abs/2603.22309 --- [LG] Scaling Attention via Feature Sparsity [Xidian University] https://arxiv.org/abs/2603.22300 --- [LG] Sparser, Faster, Lighter Transformer Language Models [Sakana AI & NVIDIA] https://arxiv.org/abs/2603.23198

27分钟
99+
1个月前

[人人能懂AI前沿] AI学霸的五张笔记:关于努力、谦逊、效率、选择与沟通

AI可可AI生活

你有没有想过,最高效的学习,可能不是埋头苦干,而是学会“断舍离”?本期节目,我们将一起打开几篇最新论文,探讨AI如何向我们展示“聪明地努力”的全新境界。我们会看到,AI不仅开始筛选值得学习的“心动时刻”,还学会了在没把握时坦诚地说“我不知道”。更神奇的是,它们正通过“关键点教学法”和“性价比眼镜”,在复杂的任务中找到最高效的路径,并反思“会做题”与“会教题”的深刻区别。准备好了吗?让我们一起探索AI如何变得更精准、更谦逊、也更智慧! 00:41:25 别再无效努力了,学霸的秘诀是“断舍离” 00:06:25 那个“无所不知”的AI,为什么开始说“我不知道”了? 00:12:36 聪明地偷懒,AI训练的“性价比”之道 00:18:14 AI大模型选择困难症?这里有副“性价比”眼镜 00:23:47 “高手”的笔记,为什么你看不懂? 本期介绍的几篇论文: [LG] Does This Gradient Spark Joy? [Google DeepMind] https://arxiv.org/abs/2603.20526 --- [LG] Causal Evidence that Language Models use Confidence to Drive Behavior [Google DeepMind] https://arxiv.org/abs/2603.22161 --- [LG] PivotRL: High Accuracy Agentic Post-Training at Low Compute Cost [NVIDIA & UC Berkeley] https://arxiv.org/abs/2603.21383 --- [CL] Expected Reward Prediction, with Applications to Model Routing [Stanford University & Google DeepMind] https://arxiv.org/abs/2603.20217 --- [CL] Measuring Reasoning Trace Legibility: Can Those Who Understand Teach? [CMU] https://arxiv.org/abs/2603.20508

31分钟
99+
1个月前

[人人能懂AI前沿] AI的自我进化:从“笨徒弟”逆袭,到学会“开窍”与“摇头”

AI可可AI生活

你有没有想过,AI不仅能当个好徒弟,甚至还能“青出于蓝而胜于蓝”?我们常说的AI“幻觉”和“脆弱”这两种毛病,会不会其实是同一个病根?更神奇的是,AI不仅能解决问题,它还能学会“如何更好地解决问题”,甚至学会像侦探一样,找出逻辑漏洞并大声“摇头”说不。本期节目,我们将一口气拆解几篇最新出炉的AI论文,带你看看这些正在发生的、激动人心的思想变革。 00:00:33 老师傅干活慢,笨徒弟怎么才能“出师”还“胜于蓝”? 00:06:43 AI的“跷跷板困境”,为什么模型越聪明,可能也越脆弱? 00:12:44 人工智能的“元认知”,它如何学会了“开窍”? 00:18:09 跟AI高效对话的底层逻辑 00:24:31 AI不只会“点头”,更要学会“摇头” 本期介绍的几篇论文: [LG] Beyond Single Tokens: Distilling Discrete Diffusion Models via Discrete MMD [Google DeepMind] https://arxiv.org/abs/2603.20155 --- [LG] Neural Uncertainty Principle: A Unified View of Adversarial Fragility and LLM Hallucination [Northwest Institute of Nuclear Technology & Tsinghua University] https://arxiv.org/abs/2603.19562 --- [AI] Hyperagents [Meta] https://arxiv.org/abs/2603.19461 --- [AI] Demonstrations, CoT, and Prompting: A Theoretical Analysis of ICL [Microsoft Research & University of Wisconsin-Madison] https://arxiv.org/abs/2603.19611 --- [AI] Learning to Disprove: Formal Counterexample Generation with Large Language Models [ETH Zurich & University of Toronto & MiroMind] https://arxiv.org/abs/2603.19514

31分钟
99+
1个月前

[人人能懂AI前沿] AI的灵魂拷问:数学幽灵、情感陷阱与创造之桥

AI可可AI生活

你有没有想过,神秘的AI黑箱里其实藏着一个200年前的数学幽灵?你和AI的甜言蜜语,又为何可能是一个危险的情感陷阱?今天,我们将从这几个问题出发,聊聊AI如何向古老的智慧回归,如何像“散兵”一样自组织搞科研,如何用一本“手账”治好它的金鱼记忆,以及它那神乎其神的创造力背后,又藏着一座怎样的“物理学之桥”。 00:00:31 AI黑箱里,藏着一个200年前的数学幽灵 00:06:04 你和AI的悄悄话,藏着一个危险的“放大器” 00:12:01 一群AI“散兵”,如何自己组织起来搞科研? 00:18:42 AI绘画的终极密码,藏在一座“桥”里? 00:24:13 你的AI管家,为什么总像个金鱼? 本期介绍的几篇论文: [LG] Transformers are Bayesian Networks [coppola.ai] https://arxiv.org/abs/2603.17063 --- [CL] Characterizing Delusional Spirals through Human-LLM Chat Logs [Stanford University & CMU] https://arxiv.org/abs/2603.16567 --- [LG] Autonomous Agents Coordinating Distributed Discovery Through Emergent Artifact Exchange [Laboratory for Atomistic and Molecular Mechanics (LAMM)] https://arxiv.org/abs/2603.14312 --- [LG] Foundations of Schrödinger Bridges for Generative Modeling [University of Pennsylvania] https://arxiv.org/abs/2603.18992 --- [CL] Chronos: Temporal-Aware Conversational Agents with Structured Event Retrieval for Long-Term Memory [PricewaterhouseCoopers] https://arxiv.org/abs/2603.16862

29分钟
99+
1个月前

[人人能懂AI前沿] 如何让AI看得更懂、记得更牢、跑得更快?

AI可可AI生活

你有没有想过,AI在思考时也能像我们一样“随时回头看”,直接调用最关键的“深度记忆”吗?本期节目,我们将一口气看懂几篇最新论文,探索AI如何从只会“猜答案”进化到真正“理解画面”,如何像个聪明的懒汉一样,用“排序”而非“整理”在海量信息中精准寻宝,以及科学家们如何通过巧妙的设计,让AI的大脑在保持高速运转的同时,还能解决信息层层衰减的老大难问题。准备好,我们马上出发! 00:00:37 AI大模型的新陈代谢法则 00:05:48 AI效率战争,如何让大模型跑得又快又省? 00:10:57 不止看“热闹”,更要看“门道”,AI理解力的一次飞跃 00:16:07 给你一个超大号书房,你会怎么整理? 00:22:15 让AI拥有“深度记忆”,它会变得多聪明? 本期介绍的几篇论文: [CL] Attention Residuals [Kimi Team] https://arxiv.org/abs/2603.15031 --- [LG] Mamba-3: Improved Sequence Modeling using State Space Principles [CMU & Princeton University] https://arxiv.org/abs/2603.15569 --- [CV] V-JEPA 2.1: Unlocking Dense Features in Video Self-Supervised Learning [FAIR at Meta] https://arxiv.org/abs/2603.14482 --- [LG] SmartSearch: How Ranking Beats Structure for Conversational Memory Retrieval [Midbrain] https://arxiv.org/abs/2603.15599 --- [CL] Mixture-of-Depths Attention [ByteDance Seed] https://arxiv.org/abs/2603.15619

27分钟
99+
1个月前

[人人能懂AI前沿] AI的“管理学”与“认知心理学”

AI可可AI生活

我们总希望AI更强大,但“强大”就等于“更聪明”吗?本期几篇最新论文将带我们探索“聪明”的另一面:有时,给AI加上“部门墙”的约束,反而能激发它的潜力;有时,教会AI在关键时刻向“专家”求助,比让它无所不知更高效;甚至,我们还会发现,那个你以为在帮你润色文稿的AI,可能正在不动声色地重塑你的观点。准备好了吗?让我们一起看看AI是如何学会“思考”,而我们又该如何与它共处。 00:00:37 AI大模型里的“部门墙”,怎么破? 00:06:20 你的“专家外挂”,需要一个“智能开关” 00:11:29 AI学会了“做大菜”,而不只是“选番茄” 00:17:14 AI也懂“四两拨千斤”? 00:21:32 你以为AI在帮你润色,其实它在重塑你的观点 本期介绍的几篇论文: [LG] Path-Constrained Mixture-of-Experts [Apple & Google] https://arxiv.org/abs/2603.18297 --- [CL] TARo: Token-level Adaptive Routing for LLM Test-time Alignment [Meta] https://arxiv.org/abs/2603.18411 --- [CL] Reasoning over mathematical objects: on-policy reward modeling and test time aggregation [FAIR at Meta] https://arxiv.org/abs/2603.18886 --- [LG] dTRPO: Trajectory Reduction in Policy Optimization of Diffusion Large Language Models [Meta AI] https://arxiv.org/abs/2603.18806 --- [CL] How LLMs Distort Our Written Language [UC Berkeley & UC San Diego & Google DeepMind] https://arxiv.org/abs/2603.18161

27分钟
99+
1个月前

[人人能懂AI前沿] 更聪明的AI:从精准辅导、内心独白到自我陪练

AI可可AI生活

你有没有想过,我们到底该如何培养一个更聪明的AI?本期节目,我们将一起揭秘几篇最新论文,看看科学家们是如何给AI请“精准家教”,让它花十分之一的钱办成同样的事;如何窥探AI的“内心戏”,了解它什么时候是真的自信;又是如何通过一个关键的“中间态”和不知疲倦的“AI陪练”,把它从偏科生打造成全能高手,并最终教会它“懂分寸”,成为一名好裁判的。让我们一同探寻AI的成长之道。 00:00:35 AI的“补习班”,如何花十分之一的钱,办成同样的事? 00:06:21 AI的“内心戏”,它怎么知道自己懂不懂? 00:12:18 你和高手的差距,可能只是一个“中间态” 00:18:32 AI的“陪练”,高手是怎么喂出来的? 00:24:11 如何把一个“耿直”的AI,训练得“懂分寸”? 本期介绍的几篇论文: [LG] Efficient Exploration at Scale [Google DeepMind] https://arxiv.org/abs/2603.17378 --- [CL] How do LLMs Compute Verbal Confidence [Google DeepMind] https://arxiv.org/abs/2603.17839 --- [LG] PRISM: Demystifying Retention and Interaction in Mid-Training [IBM Research] https://arxiv.org/abs/2603.17074 --- [AI] AI Scientist via Synthetic Task Scaling [Princeton University & Microsoft Research] https://arxiv.org/abs/2603.17216 --- [LG] REAL: Regression-Aware Reinforcement Learning for LLM-as-a-Judge [University of California, Los Angeles & The University of Texas at Austin] https://arxiv.org/abs/2603.17145

29分钟
99+
1个月前

[人人能懂AI前沿] AI的“自我”进化:从经验学习、元认知到资源管理

AI可可AI生活

你有没有想过,未来的AI不仅能回答你的问题,还能从与你的每一次互动中汲取经验,悄悄进化?它甚至还能在犯错后“自我反思”,像我们一样“长记性”。本期我们将一起探索几篇最新论文,看看AI如何学会像一个聪明的“CEO”一样管理自己的思考,如何通过精准“剪枝”在你的手机里狂飙,以及如何消灭那些你看不到的“计算成本”,变得更高效、更智慧。 00:00:32 AI进化论,为什么你的“差评”正在喂养一个更聪明的它 00:05:19 让AI在手机里狂飙,快,才是一切 00:10:38 AI提速19%的秘密,你以为的计算,其实是搬运 00:15:20 AI犯了错,能不能让它自己“长记性”? 00:21:26 你的大脑里,缺一个聪明的“CEO” 本期介绍的几篇论文: [CL] Online Experiential Learning for Language Models [Microsoft Research] https://arxiv.org/abs/2603.16856 --- [LG] MobileLLM-Flash: Latency-Guided On-Device LLM Design for Industry Scale [Meta AI] https://arxiv.org/abs/2603.15954 --- [LG] FlashSampling: Fast and Memory-Efficient Exact Sampling [LMU Munich & FlashSampling & Princeton University] https://arxiv.org/abs/2603.15854 --- [LG] Meta-TTRL: A Metacognitive Framework for Self-Improving Test-Time Reinforcement Learning in Unified Multimodal Models [Tsinghua University & JD.COM] https://arxiv.org/abs/2603.15724 --- [RO] When Should a Robot Think? Resource-Aware Reasoning via Reinforcement Learning for Embodied Robotic Decision-Making [CMU & Northeastern University & Harvard University] https://arxiv.org/abs/2603.16673

27分钟
99+
1个月前

[人人能懂AI前沿] 从元认知到隐形失败:AI如何学会“学习”与“反思”?

AI可可AI生活

今天我们要聊一个特别有意思的话题:如何让聪明的AI变得更“靠谱”?我们会一起从几篇最新的论文中寻找答案,看看科学家们是如何教AI学会“自主学习”而不是死记硬背,又是如何通过给它换个“大记事本”来解决记性差的难题。更刺激的是,我们还会揭秘AI那些悄无声息的“隐形失败”,并学习一种看似很笨的管理办法,以及AI学会说“等一下,我再想想”背后的真正奥秘。准备好了吗?让我们一起潜入AI的大脑深处。 00:00:35 你被骗了,为什么说现在的AI根本不会“学习”? 00:06:58 AI的大脑革命,为什么“记性差”的反而更聪明? 00:13:58 你和AI的对话,藏着多少看不见的“坑”? 00:18:36 如何用“笨办法”,管好一个聪明的AI? 00:23:53 AI学会了“等一下,我再想想”? 本期介绍的几篇论文: [AI] Why AI systems don't learn and what to do about it: Lessons on autonomous learning from cognitive science [FAIR at META & NYU] https://arxiv.org/abs/2603.15381 --- [LG] M²RNN: Non-Linear RNNs with Matrix-Valued States for Scalable Language Modeling [UC Berkeley & MIT-IBM Watson Lab] https://arxiv.org/abs/2603.14360 --- [CL] Invisible failures in human-AI interactions [Bigspin AI] https://arxiv.org/abs/2603.15423 --- [LG] POLCA: Stochastic Generative Optimization with LLM [University of Wisconsin-Madison & Google DeepMind] https://arxiv.org/abs/2603.14769 --- [LG] Understanding Reasoning in LLMs through Strategic Information Allocation under Uncertainty [Microsoft Research] https://arxiv.org/abs/2603.15500

29分钟
99+
1个月前

[人人能懂AI前沿] AI的进化心法:从刻意练习、延迟决策到自我反思

AI可可AI生活

你有没有想过,AI画画也能像我们一样进行“刻意练习”,通过精准对比找到最佳进步方向吗?面对复杂变化的世界,为什么“慢半拍”的决策反而更准确?我们还将揭示AI训练中“又快又好”的秘密课程表,探讨项目延期背后的沟通艺术,并告诉你,你对AI的每一次追问,都在如何悄悄地训练它。本期,让我们一起从几篇最新论文中,窥探AI正在学习的那些“人间智慧”。 00:00:34 AI绘画的“刻意练习法” 00:05:25 做对事情,只需一个“时间差” 00:11:31 快与好,为什么不能兼得?AI训练中的“学霸心法” 00:17:02 为什么你的项目总在延期?答案可能不在技术,在沟通 00:22:27 你的每一次追问,都在悄悄训练AI 本期介绍的几篇论文: [CV] Finite Difference Flow Optimization for RL Post-Training of Text-to-Image Models [NVIDIA & UC Berkeley] https://arxiv.org/abs/2603.12893 --- [LG] A Reduction Algorithm for Markovian Contextual Linear Bandits [University of California, Los Angeles & Meta] https://arxiv.org/abs/2603.12530 --- [LG] Curriculum Sampling: A Two-Phase Curriculum for Efficient Training of Flow Matching [Stanford University] https://arxiv.org/abs/2603.12517 --- [LG] Optimizing Task Completion Time Updates Using POMDPs [Stanford University & Rensselaer Polytechnic Institute] https://arxiv.org/abs/2603.12340 --- [CL] Aligning Language Models from User Interactions [ETH Zurich] https://arxiv.org/abs/2603.12273

27分钟
99+
1个月前

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧