Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。世界从未如此触手可及,想象力从未如此廉价。 但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫? 当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步? 当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱? 我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。 本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心? 这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。
你有没有想过,AI的大脑不仅会思考,还懂得“断舍离”吗?今天,我们就一起带上“手术刀”和“显微镜”,深入AI的思维深处。我们将看到AI如何像高手一样整理思路,进行一场思考的“接力赛”;还将揭秘一把能解锁所有企业数据的“通用钥匙”。更重要的是,我们将学会一种理解AI的全新语言,并看看如何给它喂一种更聪明的“饲料”。准备好了吗?让我们一起撬开AI的黑箱! 00:00:33 AI的“三段论”:它的大脑是如何整理信息的? 00:05:52 让AI学会“断舍离”,它反而更聪明了 00:10:45 解锁企业数据的“通用钥匙” 00:16:44 解剖AI:从“你看不懂”到“我能看懂” 00:22:22 喂AI,换一种更聪明的饲料 本期介绍的几篇论文: [LG] Attention Sinks and Compression Valleys in LLMs are Two Sides of the Same Coin [University of Oxford] https://arxiv.org/abs/2510.06477 --- [LG] The Markovian Thinker [Mila] https://arxiv.org/abs/2510.06557 --- [LG] Relational Transformer: Toward Zero-Shot Foundation Models for Relational Data [Stanford University] https://arxiv.org/abs/2510.06377 --- [CL] Semantic Regexes: Auto-Interpreting LLM Features with a Structured Language [MIT CSAIL & Apple] https://arxiv.org/abs/2510.06378 --- [CL] Webscale-RL: Automated Data Pipeline for Scaling RL Data to Pretraining Levels [Salesforce AI Research] https://arxiv.org/abs/2510.06499
Sora App一夜登顶,AI以前所未有的速度,为我们生成着完美的诗歌、逼真的画面和动人的视频。 世界从未如此触手可及,想象力从未如此廉价。 但你是否也和我一样,在惊叹之余,内心却涌起一丝疲惫? 当算法为你规划好最高效的路径,你是否怀念过一次没有目的的漫步? 当数字分身在虚拟世界获得万千点赞,你是否渴望一个笨拙却真实的拥抱? 我们用最高效的技术,换来了最稀缺的注意力;我们用最广泛的连接,感受着最深刻的孤独。 本期节目,我将与你一起,从Sora的火爆聊起,探讨一个我们每个人都无法回避的问题:在技术指数级加速的时代,我们该如何安放自己那颗渴望真实、渴望“低效”连接的人心? 这不是一篇技术恐惧论,而是一份清醒的“用户指南”——为你自己的人生。
我们总在惊叹AI能做什么,但今天,我想带你深入一步,看看AI究竟是如何工作的。我们将从一个全新的视角出发,把AI看作一位可以独立搞科研、甚至超越人类专家的“科研搭ADC”;接着,我们会像做脑部扫描一样,窥探AI如何偷偷地给世间万物打上“常见”或“罕见”的标签,并发现它连“偷懒”都进化到了神经元级别。最后,我们将探讨如何给这个日益强大的伙伴戴上一个数学意义上绝对安全的“紧箍咒”,以及一个惊人的发现——有时决定它表现的,竟只是一个微不足道的标点符号。准备好了吗?让我们一起潜入AI的奇妙内心。 00:00:45 你的下一位科研搭档,不是人 00:07:20 AI模型不能说的秘密:它如何给万物打分 00:12:57 聪明的大模型,连偷懒都这么有技术含量 00:18:02 AI的紧箍咒,怎么念? 00:23:25 你和AI沟通的秘密,藏在一个标点里 本期介绍的几篇论文: [AI] Barbarians at the Gate: How AI is Upending Systems Research [UC Berkeley] https://arxiv.org/abs/2510.06189 --- [LG] Gaussian Embeddings: How JEPAs Secretly Learn Your Data Density [Meta-FAIR] https://arxiv.org/abs/2510.05949 --- [CL] Mixture of Neuron Experts [Microsoft & Tsinghua University] https://arxiv.org/abs/2510.05781 --- [LG] VeriGuard: Enhancing LLM Agent Safety via Verified Code Generation [Google Cloud AI Research] https://arxiv.org/abs/2510.05156 --- [CL] A Single Character can Make or Break Your LLM Evals [FAIR at Meta] https://arxiv.org/abs/2510.05152
我们正处在一个“工作”的定义从根本上被动摇的时代。 “铁饭碗”的观念早已远去,而今天,就连我们引以为傲的“专业技能”,也正在被AI以前所未有的速度所“任务化”。这种结构性的变迁,给每个人都带来了深刻的身份焦虑。 本期节目,我们将跳出“替代与否”的简单争论,从一个更深邃的视角——“任务思维”——来重新审视我们与工作的关系。我们将探讨: * 为什么说,未来没有稳定的“工作”,只有动态的“任务组合”? * 在“K型分化”的浪潮中,我们如何确保自己是向上走的那一群人? * 以及,当“管理AI”成为一项新的核心素养时,我们应该如何学习和准备? 这期节目,不贩卖焦虑,只提供框架。它旨在帮助每一个在时代浪潮中,努力寻找方向的职场人,构建一个更具韧性和前瞻性的职业内核。
今天我们来聊聊,怎样才能更聪明地培养一个AI,而不只是一味地堆砌数据和算力。我们会探讨,AI的“童年教育”怎样才能事半功倍?它又是如何学会像我们一样“先打草稿再修改”来提升工作效率的?从把AI变成程序员,到解开它“长考”反而犯错的谜团,再到给训练过程安装“涡轮增压”,最新几篇论文将刷新你对AI学习方式的认知。 00:00:32 AI界的“鸡娃”指南 00:05:12 AI写作提速:先打草稿,再一笔修正 00:09:32 让AI下棋?不如让它当个“规则翻译官” 00:14:52 AI“长考”之后,为什么反而会出错? 00:20:56 AI训练的快车道:最后一层,我们算出来 本期介绍的几篇论文: [LG] Front-Loading Reasoning: The Synergy between Pretraining and Post-Training Data [NVIDIA & CMU] https://arxiv.org/abs/2510.03264 --- [LG] Self-Speculative Masked Diffusions [Google DeepMind] https://arxiv.org/abs/2510.03929 --- [LG] Code World Models for General Game Playing [Google DeepMind] https://arxiv.org/abs/2510.04542 --- [LG] Understanding the Role of Training Data in Test-Time Scaling [University of Southern California & University of California Los Angeles] https://arxiv.org/abs/2510.03605 --- [LG] Closed-Form Last Layer Optimization [Google Deep & Mind University of Tubingen & Secondmind] https://arxiv.org/abs/2510.04606
AI带给我们的震撼,常常让我们感到词语的贫乏,只能化作一句简单的感叹:“这太伟大了!”甚至有人断言,这是“人类历史上最伟大的发明”。 这个论断,不仅是一个技术判断,更是一个文明判断。它迫使我们,将目光从眼前的应用,投向人类历史的漫漫长河,去思考AI与那些奠定我们文明基石的伟大发明之间的关系。 本期节目,我们不急于给出结论,而是邀请你一起,参与到这场关于“伟大”的定义与思辨之中。我们将探讨,AI的独特性,是否在于它第一次,开始“延伸”我们最核心的“心智”?我们将思考,AI作为一种“帮助发明的发明”,是否将开启一个全新的创造力纪元? 更重要的是,我们将追问,当这份前所未有的“伟大”降临时,我们作为它的创造者和使用者,应该肩负起怎样的历史责任? 这期节目,献给每一个对我们所处时代,抱有敬畏与好奇的你。
想让AI更聪明,除了把它造得更大,还有没有更巧妙的办法?本期我们要聊的几篇最新论文,就提供了令人拍案叫绝的答案。我们将看到,AI训练背后藏着一个关乎结构手术的“秘密开关”,可以给它装上按需调用的“外挂硬盘”,甚至不用开刀就能为它配备私人教练。最后,我们还会探讨,如何通过保护一点“笨拙”的火花和调节一个“创意旋钮”,来彻底释放AI的潜能。 00:00:34 人工智能训练的秘密开关:捏橡皮泥还是合并黏土? 00:04:54 给大模型装个“外挂硬盘”,会发生什么? 00:09:44 AI界的私教课:如何不“开刀”就改造一个大模型 00:15:12 为什么最聪明的学生,也需要一点“笨”想法? 00:20:32 解锁AI潜能:你只差一个“旋钮” 本期介绍的几篇论文: [LG] Topological Invariance and Breakdown in Learning [University of Michigan & MIT] https://arxiv.org/abs/2510.02670 --- [CL] Pretraining with hierarchical memories: separating long-tail and common knowledge [Apple] https://arxiv.org/abs/2510.02375 --- [LG] How to Train Your Advisor: Steering Black-Box LLMs with Advisor Models [UC Berkeley] https://arxiv.org/abs/2510.02453 --- [LG] Low-probability Tokens Sustain Exploration in Reinforcement Learning with Verifiable Reward [Tencent] https://arxiv.org/abs/2510.03222 --- [LG] On the Role of Temperature Sampling in Test-Time Scaling [Stanford University] https://arxiv.org/abs/2510.02611
想不想知道,如何通过一场“团体赛”规则,治好AI“偏科”的毛病?又如何不花一分钱,只靠一个古老的“背包问题”,就让AI训练效率飙升40%?甚至,我们将看到一个天生“失明”的AI,如何在想象力测试中击败人类。本期节目,我们将从最新的几篇论文出发,揭示AI如何学会团队合作、聪明用钱,甚至掌握了“蒙眼思考”和“断舍离”的智慧。 00:00:32 AI训练指南:如何让你的“学霸”不偏科? 00:05:50 AI训练的“免费午餐”:如何不花一分钱,让模型变得更聪明? 00:11:57 从“一指禅”到“组合拳”:AI学习的升级之路 00:16:54 AI的“心灵盲区”:它看不见,却想得更明白? 00:21:19 AI的记忆难题:如何优雅地“断舍离”? 本期介绍的几篇论文: [LG] Polychromic Objectives for Reinforcement Learning [Stanford University] https://arxiv.org/abs/2509.25424 --- [LG] Knapsack RL: Unlocking Exploration of LLMs via Optimizing Budget Allocation [ByteDance Seed & The Chinese University of Hong Kong] https://arxiv.org/abs/2509.25849 --- [LG] Learning to Reason as Action Abstractions with Scalable Mid-Training RL [Apple] https://arxiv.org/abs/2509.25810 --- [LG] Artificial Phantasia: Evidence for Propositional Reasoning-Based Mental Imagery in Large Language Models [Northeastern University] https://arxiv.org/abs/2509.23108 --- [LG] Expected Attention: KV Cache Compression by Estimating Attention from Future Queries Distribution [NVIDIA & Sapienza University of Rome] https://arxiv.org/abs/2510.00636
当所有人都在谈论AGI的黎明时,为何两位图灵奖得主却预警“前方是死胡同”? 是技术见顶的丧钟,还是范式革命的前奏? 本期节目,我将为你拨开AI的重重迷雾。从鹦鹉学舌到猫的直觉,他用最通俗的类比,拆解最前沿的技术争论。 与其焦虑“AI会不会取代我”,不如思考“我该站在哪里迎接下一波浪潮”。这不是一份悲观的预言,而是一张穿越技术周期的清醒地图。 加入「AI评论」,与我一起,站在浪潮之巅,看清未来十年。
这一期,我们将一起探索AI的“大脑”有没有可能像一张能被看懂的设计图,并看看AI如何反过来帮我们给维基百科“捉虫”。接着,我们会聊聊当AI“人多力量大”时,如何聪明地选出最佳方案,以及机器人模仿人类动作时,到底什么才是精髓。最后,一个颠覆性的发现会告诉我们:训练AI解题高手,最“笨”的方法有时竟然是最好的方法。 00:00:31 AI的“大脑”长啥样?一份来自未来的设计图 00:06:05 维基百科这位“巨人”,也会自己打自己吗? 00:10:22 人多不一定力量大,除非你懂得怎么选 00:14:43 机器人模仿秀:差的那口气,终于有人补上了 00:20:22 高手之路:有时,“最笨”的方法就是最好的方法 本期介绍的几篇论文: [LG] The Dragon Hatchling: The Missing Link between the Transformer and Models of the Brain [Pathway] https://arxiv.org/abs/2509.26507 --- [CL] Detecting Corpus-Level Knowledge Inconsistencies in Wikipedia with Large Language Models [Stanford University] https://arxiv.org/abs/2509.23233 --- [LG] The Unreasonable Effectiveness of Scaling Agents for Computer Use [Simular Research] https://arxiv.org/abs/2510.02250 --- [RO] OmniRetarget: Interaction-Preserving Data Generation for Humanoid Whole-Body Loco-Manipulation and Scene Interaction [Amazon FAR] https://arxiv.org/abs/2509.26633 --- [LG] Random Policy Valuation is Enough for LLM Reasoning with Verifiable Rewards [Hong Kong University of Science and Technology & Kuaishou Technology] https://arxiv.org/abs/2509.24981
当皮卡丘在日本用户生成的视频里拯救世界,任天堂该震怒还是庆祝?当好莱坞的IP成为人人可用的“颜料”,电影的未来是被颠覆还是被重塑? Sora带来的不仅是视觉奇观,更是一场深刻的文化生产关系革命。Sam Altman抛出的“IP分成”模式,是AI向版权巨头递出的橄榄枝,还是打开了潘多拉的魔盒? 本期节目,我将与你一起: * 穿越历史:回顾从印刷术到Napster,版权与技术那场持续百年的“猫鼠游戏”。 * 拆解模式:深入剖析OpenAI的“阳谋”,看版权如何从防御的“护城河”,变成创造价值的“发电厂”。 * 预见未来:我们正在从“知识社会”大步迈入“想象力社会”。在这个新世界,你我的价值坐标将如何重新定义? 这不只是一次商业模式的探讨,更是一次关于未来创造力、价值和所有权的思想实验。Sora不是终点,它只是平行世界电影院的开场哨。
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧