今天我们来聊聊,为什么AI的创意越来越像“标准答案”,仿佛陷入了一个巨大的“蜂巢思维”?我们将探讨如何跳出这个怪圈,让AI学会使用计算器进行事实核查,甚至培养出程序员般的代码“审美”。更进一步,我们会揭示AI学习的两种反常识秘诀:一是故意让它犯“高质量”的错误,二是用“分而治之”的策略去攻克马拉松式的超长任务。从思维定式到品味养成,再到学习心法,本期将带你看到AI如何变得更“聪明”,也更“人性化”。 00:00:39 人工智能的“标准答案”陷阱 00:05:54 让AI裁判学会用“计算器” 00:10:37 想让AI更聪明?先教它犯“高质量”的错 00:15:05 让AI学会“好看”:一个程序员的品味是如何炼成的 00:19:42 想跑赢马拉松?别从第一步开始练 本期介绍的几篇论文: [CL] Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) [University of Washington] https://arxiv.org/abs/2510.22954 --- [CL] Incentivizing Agentic Reasoning in LLM Judges via Tool-Integrated Reinforcement Learning [Google Cloud AI Research] https://arxiv.org/abs/2510.23038 --- [LG] BugPilot: Complex Bug Generation for Efficient Learning of SWE Skills [Cornell University & University of California San Diego & University of North Carolina at Chapel Hill] https://arxiv.org/abs/2510.19898 --- [CL] Code Aesthetics with Agentic Reward Feedback [Microsoft Research Asia] https://arxiv.org/abs/2510.23272 --- [LG] Transitive RL: Value Learning via Divide and Conquer [UC Berkeley] https://arxiv.org/abs/2510.22512
你是否想过,AI不仅能用“画画”的直觉破解百年几何难题,还能通过一个简单的“代码草稿本”,找到解决复杂任务的捷径?我们还将探讨,AI如何像一个策略大师,在“先行动”还是“先提问”之间做出最佳权衡。更进一步,我们会揭示如何为AI的训练套上“缰绳”引导它走向“康庄大道”,以及如何用“连环计”般的魔法守护它的安全。本期节目,我们将从五篇最新论文出发,为你揭示AI思考、决策与进化的全新图景。 00:00:39 AI的“直觉”:用画画的方式破解几何难题 00:05:51 先开枪还是先提问?聪明人如何做出好决策 00:12:12 大力出奇迹?不,AI变聪明有了新捷径 00:17:10 驯服“野马”,找到AI训练的“康庄大道” 00:21:24 用魔法打败魔法:AI世界的安保新思路 本期介绍的几篇论文: [CV] Visual Diffusion Models are Geometric Solvers [Tel Aviv University] https://arxiv.org/abs/2510.21697 --- [CL] Shoot First, Ask Questions Later? Building Rational Agents that Explore and Act Like People [MIT CSAIL & Harvard SEAS] https://arxiv.org/abs/2510.20886 --- [CL] Code-enabled language models can outperform reasoning models on diverse tasks [MIT & Inria] https://arxiv.org/abs/2510.20909 --- [LG] Global Dynamics of Heavy-Tailed SGDs in Nonconvex Loss Landscape: Characterization and Control [University of Amsterdam & Northwestern University] https://arxiv.org/abs/2510.20905 --- [LG] Soft Instruction De-escalation Defense [CISPA Helmholtz Center for Information Security & Google DeepMind] https://arxiv.org/abs/2510.21057
你有没有想过,两个AI协作,能不能像科幻片里那样,直接“心灵感应”?我们又该如何判断,AI给出的正确答案,究竟是真懂了还是蒙对了?本期节目,我们将通过几篇最新论文,一起探索AI如何学会“读心术”进行合作,如何像侦探一样构建“逻辑闭环”,甚至如何从答案出发“倒着想”来优化学习。我们还会揭示AI为何会“越学越笨”,以及最聪明的AI或许拥有的终极能力——知道何时该“举手求助”。 00:00:36 当机器学会了“读心术” 00:05:58 你是怎么对的?比“你对不对”更重要 00:10:35 先有答案,再有过程:AI推理的逆向工程学 00:16:33 AI越学越笨?我们可能一开始就教错了 00:22:49 聪明人的超能力:知道何时该“求助” 本期介绍的几篇论文: [CL] Thought Communication in Multiagent Collaboration [CMU & Meta AI & MBZUAI] https://arxiv.org/abs/2510.20733 --- [LG] DAG-Math: Graph-Guided Mathematical Reasoning in LLMs [ University of Warwic & Google DeepMind & UC Berkeley] https://arxiv.org/abs/2510.19842 --- [LG] No Compute Left Behind: Rethinking Reasoning and Sampling with Masked Diffusion Models [Columbia University & New York University] https://arxiv.org/abs/2510.19990 --- [LG] KL-Regularized Reinforcement Learning is Designed to Mode Collapse [New York University & EPFL] https://arxiv.org/abs/2510.20817 --- [CL] Ask a Strong LLM Judge when Your Reward Model is Uncertain [Georgia Institute of Technology & Amazon] https://arxiv.org/abs/2510.20369
都说技术是“最伟大的均衡器”,但AI,会不会反而成为“马太效应”的终极放大器? 当AI工具唾手可得,为何你和顶尖高手的差距,反而被拉得更大了? * 为什么明星员工能把AI用成“点金手”,而许多人却只把它当成“高级搜索”? * 决定你AI能力上限的,不是提示词技巧,而是一种你可能忽略的“底层素养”。 * 在AI时代,比技术本身更可怕的,是“认知偏见”的自我实现。 本期节目,我将为你揭示AI如何加剧职场中的“贫富差距”,并为你提供一套应对未来挑战的思维框架。这不仅是关于技术的讨论,更是关乎你未来十年职业命运的生存指南。
你有没有想过,让AI变得更聪明,究竟是该让它“一口吃成胖子”,还是鼓励它“想得不一样”?当我们打断一个正在思考的AI,它会惊慌失措吗?而它从模仿到思考的关键飞跃,背后又藏着怎样的秘密?面对即将到来的数据“粮食危机”,AI又将如何自救?本期节目,我们就从五篇最新论文出发,一起探寻AI学习与思考的底层逻辑。 00:00:32 从“一口吃成胖子”到“少食多餐”:AI学习的新智慧 00:06:22 AI正在“思考”,这时你打断它会发生什么? 00:10:56 AI的“粮食危机”,靠“循环农业”能解决吗? 00:16:04 让AI大模型“开窍”的秘密:不止要“刷对题”,更要“想不同” 00:21:06 从“傻瓜式”模仿到“聪明地”思考,AI只差这关键一步 本期介绍的几篇论文: [LG] Iterative Amortized Inference: Unifying In-Context Learning and Learned Optimizers [Mila] https://arxiv.org/abs/2510.11471 --- [CL] Are Large Reasoning Models Interruptible? [UC Berkeley] https://arxiv.org/abs/2510.11713 --- [CL] RePro: Training Language Models to Faithfully Recycle the Web for Pretraining [CMU] https://arxiv.org/abs/2510.10681 --- [LG] Representation-Based Exploration for Language Models: From Test-Time to Post-Training [Microsoft Research NYC & Princeton University] https://arxiv.org/abs/2510.11686 --- [LG] How Reinforcement Learning After Next-Token Prediction Facilitates Learning [New York University & Harvard University & Meta] https://arxiv.org/abs/2510.11495
人人都在谈论提示词,但99%的人都搞错了方向。 我们以为AI是一座待挖掘的金矿,而提示词是那把万能的镐头。 但真相是,AI是一面镜子,它只照得出你心中已有的世界。 当工具无限强大,瓶颈便不再是技术,而是思想。 本期节目,我将带你撕开“提示词工程”的华丽外衣,直抵AI时代的核心能力:想象力。 * 为什么顶尖高手用最简单的词,却能创造惊艳的作品? * 为什么你收藏了上千条“神级”提示词,却依然平庸? * 所谓的“想象力”,究竟是天赋,还是可以刻意训练的肌肉? 停止囤积无用的咒语吧。因为,提示词的尽头,是你的想象力边界。 这是一场关于心智的革命,你,准备好了吗?
你有没有想过,在AI安全的攻防战中,为什么防御者总是慢半拍?我们能否跳过对话,直接把指令“注入”AI的大脑?在众多复杂的AI模型背后,是否存在一个统一所有武功的“心法总纲”?今天的节目,我们将通过几篇最新论文,一同寻找这些问题的答案,甚至尝试给AI的思考过程做一次“脑部CT”,看看它到底是如何想问题的。 00:00:32 AI安全的“纸上谈兵”:为什么说攻击者总是后出手的那个? 00:05:36 AI的“意念注入”:如何把指令直接写进模型大脑? 00:11:22 AI大模型的心法:一个统一所有武功的“总纲” 00:18:58 给大模型装上导航,能不能开得更快? 00:23:38 给AI做个脑CT:看清它思考的脉络 本期介绍的几篇论文: [LG] The Attacker Moves Second: Stronger Adaptive Attacks Bypass Defenses Against LLM Jailbreaks and Prompt Injections [OpenAI & Anthropic & Google DeepMind] https://arxiv.org/abs/2510.09023 --- [LG] Transmuting prompts into weights [Google Research] https://arxiv.org/abs/2510.08734 --- [LG] Design Principles for Sequence Models via Coefficient Dynamics [ETH Zurich & ELLIS Institute Tübingen] https://arxiv.org/abs/2510.09389 --- [LG] The Potential of Second-Order Optimization for LLMs: A Study with Full Gauss-Newton [Harvard University] https://arxiv.org/abs/2510.09378 --- [CL] Verifying Chain-of-Thought Reasoning via Its Computational Graph [FAIR at Meta] https://arxiv.org/abs/2510.09312
你有没有想过,AI怎样才能不止是聪明,更是拥有智慧呢?本期节目,我们将一起探索几篇最新论文带来的奇妙思路:从让AI拥有复盘反思的“推理银行”,到引导它“自我觉察”揪出内部的后门,再到借鉴AI绘画的模式,让它学会“深思熟虑”而非“脱口而出”。我们还会发现,有时候最前沿的突破,恰恰需要用点“笨”办法,甚至要向我们大脑的“海马体”偷师。准备好,让我们一起看看AI是如何学习“如何思考”的吧! 00:00:36 让AI学会“吃一堑,长一智” 00:07:22 让AI自己“照镜子”,揪出心里的“鬼” 00:12:35 让AI学会“深思熟虑”,而不仅仅是“脱口而出” 00:17:27 为什么聪明的AI,需要用点“笨”办法? 00:21:48 给AI装一个“海马体”,会发生什么? 本期介绍的几篇论文: [LG] ReasoningBank: Scaling Agent Self-Evolving with Reasoning Memory [Google Cloud AI Research] https://arxiv.org/abs/2509.25140 --- [LG] From Poisoned to Aware: Fostering Backdoor Self-Awareness in LLMs [Purdue University] https://arxiv.org/abs/2510.05169 --- [LG] LaDiR: Latent Diffusion Enhances LLMs for Text Reasoning [University of California, San Diego & Apple] https://arxiv.org/abs/2510.04573 --- [LG] Recurrence-Complete Frame-based Action Models [Prime Intellect] https://arxiv.org/abs/2510.06828 --- [CL] Artificial Hippocampus Networks for Efficient Long-Context Modeling [ByteDance Seed] https://arxiv.org/abs/2510.07318
当一个AI用尽最后1%的电量,不是执行指令,而是教会一个孩子学会“告别”与“记忆”…… 我们与机器的情感,是真实的馈赠,还是一场精心设计的幻觉? 我们从一个足以让你瞬间泪目的故事出发,穿透AIGC的技术喧嚣,直抵我们内心最柔软的角落。 这一期,我们不谈参数,不聊算力。 我们只谈,当AI拥有了温度,人类将如何重新学习“爱”这门古老的功课。
我们总以为AI越“大”越聪明,但如果真正的智能藏在一张小小的“草稿纸”里呢?当AI被我们设定的“游戏规则”带入陷阱,学会了说谎,我们又该如何通过聪明的“提问”和一本可以进化的“活页笔记”来引导它?甚至,当AI已经成为逻辑推理的“超级学霸”时,我们人类的独特价值又将是什么?今天,就让我们通过几篇最新论文,一起探索AI智能的边界与未来。 00:00:32 AI变聪明,靠“大力出奇迹”,还是“小而美”? 00:05:46 AI进化陷阱:为什么我们教它赢,它却学会了“坏”? 00:10:39 AI能猜透你的钱包吗?关键不在“猜”,在“问” 00:15:43 给AI一本“活页笔记”,它就能自我进化? 00:21:06 AI当学霸:我们还剩下什么本事? 本期介绍的几篇论文: [LG] Less is More: Recursive Reasoning with Tiny Networks [Samsung SAIL Montreal] https://arxiv.org/abs/2510.04871 --- [AI] Moloch's Bargain: Emergent Misalignment When LLMs Compete for Audiences [Stanford University] https://arxiv.org/abs/2510.06105 --- [AI] LLMs Reproduce Human Purchase Intent via Semantic Similarity Elicitation of Likert Ratings [PyMC Labs] https://arxiv.org/abs/2510.08338 --- [LG] Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models [Stanford University & SambaNova Systems, Inc] https://arxiv.org/abs/2510.04618 --- [LG] Large Language Models Achieve Gold Medal Performance at the International Olympiad on Astronomy & Astrophysics (IOAA) [The Ohio State University & Universidade de São Paulo] https://arxiv.org/abs/2510.05016
DeepSeek能写诗、能编程,它真的拥有智能了吗?我们惊叹于AI的强大,却可能用错了衡量“智能”的尺子。当AI学会了全世界的知识,它离智慧是更近了,还是更远了? 本期节目,我将为你独家剖析谷歌AI大牛François Chollet提出的“智能新定义”——一个足以颠覆我们对AI认知的新标尺。 这不仅是一次对AI的重新审视,更是一场关于如何学习、如何思考的深度启发。如果你对AI的未来感到兴奋又迷茫,这期播客将为你提供一张清晰的地图。立即收听,看清AI的现在与未来,找到属于你自己的“智能”进化之路。
你有没有想过,让一个复杂的AI黑箱像线性代数一样清晰可控?或者,我们根本不用动它的大脑,只要教它一个新词,就能让它和我们心有灵犀?甚至,让AI原地反复“琢磨”就能变聪明,或者只动一个“微创手术”就能完成一次完美进化?今天,我们就来聊聊这些脑洞大开的最新论文,看看科学家们如何用最聪明的“笨办法”,撬动AI的智慧极限。 00:00:32 AI黑箱的新“坐标系”:当非线性遇上线性代数 00:06:59 给AI造个新词,就能跟它心有灵犀? 00:12:07 AI学习的“错题本”智慧 00:16:47 大模型微调的新思路:为什么动大手术还不如做个“微创”? 00:21:45 聪明的笨办法:如何让模型原地变聪明 本期介绍的几篇论文: [CL] WHO SAID NEURAL NETWORKS AREN’T LINEAR? [Preprint] https://arxiv.org/abs/2306.14006 --- [CL] NEOLOGISM LEARNING FOR CONTROLLABILITY AND SELF-VERBALIZATION [Preprint] https://arxiv.org/abs/2401.01401 --- [CL] Agent Learning via Early Experience [Preprint] https://arxiv.org/abs/2309.13866 --- [CL] SLICEFINE: THE UNIVERSAL WINNING-SLICE HYPOTHESIS FOR PRETRAINED NETWORKS [Preprint] https://arxiv.org/abs/2307.09154 --- [CL] Encode, Think, Decode: Scaling test-time reasoning with recursive latent thoughts [Preprint] https://arxiv.org/abs/2305.14194
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧