[人人能懂] 从信息压缩、智慧遗忘到数据通感

AI可可AI生活

你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱! 00:00:33 AI的“三段论”:它的大脑是如何整理信息的? 00:05:52 让AI学会“断舍离”,它反而更聪明了 00:10:45 解锁企业数据的“通用钥匙” 00:16:44 解剖AI:从“你看不懂”到“我能看懂” 00:22:22 喂AI,换一种更聪明的饲料 本期介绍的几篇论文: [LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin [University of Oxford] https://arxiv.org/abs/2510.06477 --- [LG] The Markovian Thinker [Mila] https://arxiv.org/abs/2510.06557 --- [LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data [Stanford University] https://arxiv.org/abs/2510.06377 --- [CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language [MIT CSAIL & Apple] https://arxiv.org/abs/2510.06378 --- [CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels [Salesforce AI Research] https://arxiv.org/abs/2510.06499

28分钟
99+
3周前

[人人能懂] 从自动化科研、隐式密度到神经元剪枝

AI可可AI生活

我们总在惊叹AI能做什么,但今天,我想带你深入一步,看看AI究竟是如何工作的。我们将从一个全新的视角出发,把AI看作一位可以独立搞科研、甚至超越人类专家的“科研搭ADC”;接着,我们会像做脑部扫描一样,窥探AI如何偷偷地给世间万物打上“常见”或“罕见”的标签,并发现它连“偷懒”都进化到了神经元级别。最后,我们将探讨如何给这个日益强大的伙伴戴上一个数学意义上绝对安全的“紧箍咒”,以及一个惊人的发现——有时决定它表现的,竟只是一个微不足道的标点符号。准备好了吗?让我们一起潜入AI的奇妙内心。 00:00:45 你的下一位科研搭档,不是人 00:07:20 AI模型不能说的秘密:它如何给万物打分 00:12:57 聪明的大模型,连偷懒都这么有技术含量 00:18:02 AI的紧箍咒,怎么念? 00:23:25 你和AI沟通的秘密,藏在一个标点里 本期介绍的几篇论文: [AI] Barbarians at the Gate: How AI is Upending Systems Research [UC Berkeley] https://arxiv.org/abs/2510.06189 --- [LG] Gaussian Embeddings: How JEPAs Secretly Learn Your Data Density [Meta-FAIR] https://arxiv.org/abs/2510.05949 --- [CL] Mixture of Neuron Experts [Microsoft & Tsinghua University] https://arxiv.org/abs/2510.05781 --- [LG] VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [Google Cloud AI Research] https://arxiv.org/abs/2510.05156 --- [CL] A Single Character can Make or Break Your LLM Evals [FAIR at Meta] https://arxiv.org/abs/2510.05152

28分钟
99+
3周前

[人人能懂] 从不对称数据、自我审视到代码世界模型

AI可可AI生活

今天我们来聊聊,怎样才能更聪明地培养一个AI,而不只是一味地堆砌数据和算力。我们会探讨,AI的“童年教育”怎样才能事半功倍?它又是如何学会像我们一样“先打草稿再修改”来提升工作效率的?从把AI变成程序员,到解开它“长考”反而犯错的谜团,再到给训练过程安装“涡轮增压”,最新几篇论文将刷新你对AI学习方式的认知。 00:00:32 AI界的“鸡娃”指南 00:05:12 AI写作提速:先打草稿,再一笔修正 00:09:32 让AI下棋?不如让它当个“规则翻译官” 00:14:52 AI“长考”之后,为什么反而会出错? 00:20:56 AI训练的快车道:最后一层,我们算出来 本期介绍的几篇论文: [LG] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data [NVIDIA & CMU] https://arxiv.org/abs/2510.03264 --- [LG] Self-Speculative Masked Diffusions [Google DeepMind] https://arxiv.org/abs/2510.03929 --- [LG] Code World Models for General Game Playing [Google DeepMind] https://arxiv.org/abs/2510.04542 --- [LG] Understanding the Role of Training Data in Test-Time Scaling [University of Southern California & University of California Los Angeles] https://arxiv.org/abs/2510.03605 --- [LG] Closed-Form Last Layer Optimization [Google Deep & Mind University of Tubingen & Secondmind] https://arxiv.org/abs/2510.04606

26分钟
99+
3周前

[人人能懂] 当AI学会捏橡皮泥、装硬盘、请私教

AI可可AI生活

想让AI更聪明,除了把它造得更大,还有没有更巧妙的办法?本期我们要聊的几篇最新论文,就提供了令人拍案叫绝的答案。我们将看到,AI训练背后藏着一个关乎结构手术的“秘密开关”,可以给它装上按需调用的“外挂硬盘”,甚至不用开刀就能为它配备私人教练。最后,我们还会探讨,如何通过保护一点“笨拙”的火花和调节一个“创意旋钮”,来彻底释放AI的潜能。 00:00:34 人工智能训练的秘密开关:捏橡皮泥还是合并黏土? 00:04:54 给大模型装个“外挂硬盘”,会发生什么? 00:09:44 AI界的私教课:如何不“开刀”就改造一个大模型 00:15:12 为什么最聪明的学生,也需要一点“笨”想法? 00:20:32 解锁AI潜能:你只差一个“旋钮” 本期介绍的几篇论文: [LG] Topological Invariance and Breakdown in Learning [University of Michigan & MIT] https://arxiv.org/abs/2510.02670 --- [CL] Pretraining with hierarchical memories: separating long-tail and common knowledge [Apple] https://arxiv.org/abs/2510.02375 --- [LG] How to Train Your Advisor: Steering Black-Box LLMs with Advisor Models [UC Berkeley] https://arxiv.org/abs/2510.02453 --- [LG] Low-probability Tokens Sustain Exploration in Reinforcement Learning with Verifiable Reward [Tencent] https://arxiv.org/abs/2510.03222 --- [LG] On the Role of Temperature Sampling in Test-Time Scaling [Stanford University] https://arxiv.org/abs/2510.02611

26分钟
99+
4周前

[人人能懂] 从团体赛、免费午餐到优雅忘记

AI可可AI生活

想不想知道,如何通过一场“团体赛”规则,治好AI“偏科”的毛病?又如何不花一分钱,只靠一个古老的“背包问题”,就让AI训练效率飙升40%?甚至,我们将看到一个天生“失明”的AI,如何在想象力测试中击败人类。本期节目,我们将从最新的几篇论文出发,揭示AI如何学会团队合作、聪明用钱,甚至掌握了“蒙眼思考”和“断舍离”的智慧。 00:00:32 AI训练指南:如何让你的“学霸”不偏科? 00:05:50 AI训练的“免费午餐”:如何不花一分钱,让模型变得更聪明? 00:11:57 从“一指禅”到“组合拳”:AI学习的升级之路 00:16:54 AI的“心灵盲区”:它看不见,却想得更明白? 00:21:19 AI的记忆难题:如何优雅地“断舍离”? 本期介绍的几篇论文: [LG] Polychromic Objectives for Reinforcement Learning [Stanford University] https://arxiv.org/abs/2509.25424 --- [LG] Knapsack RL: Unlocking Exploration of LLMs via Optimizing Budget Allocation [ByteDance Seed & The Chinese University of Hong Kong] https://arxiv.org/abs/2509.25849 --- [LG] Learning to Reason as Action Abstractions with Scalable Mid-Training RL [Apple] https://arxiv.org/abs/2509.25810 --- [LG] Artificial Phantasia: Evidence for Propositional Reasoning-Based Mental Imagery in Large Language Models [Northeastern University] https://arxiv.org/abs/2509.23108 --- [LG] Expected Attention: KV Cache Compression by Estimating Attention from Future Queries Distribution [NVIDIA & Sapienza University of Rome] https://arxiv.org/abs/2510.00636

26分钟
97
4周前

[人人能懂] 从大脑设计图、全局一致性到随机探索的价值

AI可可AI生活

这一期,我们将一起探索AI的“大脑”有没有可能像一张能被看懂的设计图,并看看AI如何反过来帮我们给维基百科“捉虫”。接着,我们会聊聊当AI“人多力量大”时,如何聪明地选出最佳方案,以及机器人模仿人类动作时,到底什么才是精髓。最后,一个颠覆性的发现会告诉我们:训练AI解题高手,最“笨”的方法有时竟然是最好的方法。 00:00:31 AI的“大脑”长啥样?一份来自未来的设计图 00:06:05 维基百科这位“巨人”,也会自己打自己吗? 00:10:22 人多不一定力量大,除非你懂得怎么选 00:14:43 机器人模仿秀:差的那口气,终于有人补上了 00:20:22 高手之路:有时,“最笨”的方法就是最好的方法 本期介绍的几篇论文: [LG] The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain [Pathway] https://arxiv.org/abs/2509.26507 --- [CL] Detecting Corpus-Level Knowledge Inconsistencies in Wikipedia with Large Language Models [Stanford University] https://arxiv.org/abs/2509.23233 --- [LG] The Unreasonable Effectiveness of Scaling Agents for Computer Use [Simular Research] https://arxiv.org/abs/2510.02250 --- [RO] OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [Amazon FAR] https://arxiv.org/abs/2509.26633 --- [LG] Random Policy Valuation is Enough for LLM Reasoning with Verifiable Rewards [Hong Kong University of Science and Technology & Kuaishou Technology] https://arxiv.org/abs/2509.24981

26分钟
99+
4周前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧