AI可可AI生活
用最通俗的语言,跟进最前沿的人工智能科研成果

Album
主播:
fly51fly
出版方:
fly51fly
订阅数:
1.42万
集数:
829
最近更新:
2天前
播客简介...
来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿
AI可可AI生活的创作者...
AI可可AI生活的节目...

[人人能懂] AI的五项修炼:挂挡、瘦身、听风、量尺、育苗

AI可可AI生活

我们总在惊叹AI变得多聪明,但你有没有想过,我们该如何从根基上,打造一个学得更快、身形更巧、感知更敏锐、评价更科学,甚至能自我进化的AI呢?本期节目,我们将通过五篇最新的AI论文,一次性揭开这些秘密。我们会聊聊AI学习速度原来只有四个“档位”;探讨如何给大模型“减肥”却不牺牲效果;见证AI如何拥有“听声辨位”的超能力;学习如何给眼花缭乱的AI科学地“排座次”;最后,我们还会看到一个“博士生”AI是如何手把手教出一个更聪明的“小学生”AI的。准备好了吗?让我们即刻出发,探索AI的底层构造蓝图。 00:00:45 人工智能学习的速度,原来只有四档 00:07:40 AI减肥记,如何不花钱还把活干好? 00:13:35 AI的“听声辨位”,我们离《三体》里的智子还有多远? 00:19:43 给AI大模型排座次,你信的榜单可能用错了尺子 00:26:35 让AI自己教自己,我们如何从根上培养一个更聪明的模型? 本期介绍的几篇论文: [LG] A Theory of Universal Agnostic Learning [Purdue University & Technion and Google Research] https://arxiv.org/abs/2601.20961 --- [CL] ECO: Quantized Training without Full-Precision Master Weights [Google Research & ISTA] https://arxiv.org/abs/2601.22101 --- [AS] PhaseCoder: Microphone Geometry-Agnostic Spatial Audio Understanding for Multimodal LLMs [Google DeepMind & Google AR] https://arxiv.org/abs/2601.21124 --- [LG] Nonparametric LLM Evaluation from Preference Data [LMU Munich & CMU & University of Cambridge] https://arxiv.org/abs/2601.21816 --- [CL] Self-Improving Pretraining: using post-trained models to pretrain better models [FAIR at Meta] https://arxiv.org/abs/2601.21343

32分钟
43
2天前

[人人能懂] AI如何持续学习、保持诚实并从错误中成长

AI可可AI生活

今天我们来聊聊AI的“内心世界”:我们找到了那把能解锁所有学习方法的“万能钥匙”,却也发现AI的“人格”竟会随着对话见风使舵。我们试图让它像生物一样“进化”,却不小心让它患上了“灾难性遗忘症”。面对越来越强的AI,我们这些“菜鸟裁判”又该如何确保它的诚实?最后,我们会发现,让AI飞速成长的秘诀,可能不是好评,而是一份详尽的“错误报告”。 00:00:32 人工智能的“万能钥匙”藏在哪? 00:06:34 AI的“人格”,为什么聊着聊着就变了? 00:11:47 AI的“进化”陷阱,为什么学得越多,忘得越快? 00:16:47 菜鸟裁判,如何拿捏顶尖高手? 00:21:48 差评,好评,不如一份详细的“错误报告” 本期介绍的几篇论文: [LG] Spectral Ghost in Representation Learning: from Component Analysis to Self-Supervised Learning [Google DeepMind & Harvard University] https://arxiv.org/abs/2601.20154 --- [CL] Linear representations in language models can change dramatically over a conversation [Google DeepMind] https://arxiv.org/abs/2601.20834 --- [LG] Evolutionary Strategies lead to Catastrophic Forgetting in LLMs [UC Berkeley] https://arxiv.org/abs/2601.20861 --- [LG] Truthfulness Despite Weak Supervision: Evaluating and Training LLMs Using Peer Prediction [UC Berkeley] https://arxiv.org/abs/2601.20299 --- [LG] Reinforcement Learning via Self-Distillation [ETH Zurich] https://arxiv.org/abs/2601.20802

27分钟
99+
3天前

[人人能懂] AI如何预测、评判、塑造和超越自我?

AI可可AI生活

今天我们不聊AI又在哪项测试里拿了第一,而是要深入AI的“内心世界”,探讨几个更根本的问题。我们能否像一位老道的教师一样,精准预测一个AI模型的未来潜力?当AI学生比裁判更聪明时,我们看到的排行榜还有意义吗?甚至,AI在学习解题时,会不会被悄悄植入“思想钢印”,学会一些它本不该知道的东西?本期节目,我们将从几篇最新论文出发,一起探索AI如何审视、学习和超越自我。 00:00:35 AI算命师,我们能预测模型的未来吗? 00:06:34 你的第一名,可能只是因为裁判不够格 00:11:47 AI世界的“思想钢印”,一份免费午餐背后的隐秘风险 00:17:45 高手过招,用“抽象”这把万能钥匙开锁 00:24:00 AI的“中年危机”,如何持续学习不掉队? 本期介绍的几篇论文: [LG] Neural Neural Scaling Laws [New York University] https://arxiv.org/abs/2601.19831 --- [LG] Benchmarks Saturate When The Model Gets Smarter Than The Judge [Vrije Universiteit Brussel] https://arxiv.org/abs/2601.19532 --- [LG] Thought-Transfer: Indirect Targeted Poisoning Attacks on Chain-of-Thought Reasoning Models [Northeastern University & University of Cambridge & Google DeepMind] https://arxiv.org/abs/2601.19061 --- [LG] Axe: A Simple Unified Layout Abstraction for Machine Learning Compilers [CMU & Shanghai Jiao Tong University & NVIDIA] https://arxiv.org/abs/2601.19092 --- [LG] Self-Distillation Enables Continual Learning [MIT & ETH Zurich] https://arxiv.org/abs/2601.19897

31分钟
99+
4天前

[人人能懂] 给AI装上测谎仪、传送门和贴身家教

AI可可AI生活

你有没有想过,AI也会“生病”、“开窍”和“自我反省”?本期节目,我们将一口气解锁五篇最新论文,带你看看科学家们如何像高明的医生和顶级的教练一样,深入AI的“内心世界”。我们将一起探索:如何给AI装上“测谎仪”,精准诊断它胡说八道背后的两种病根;又如何用一个“传送门”把它送到难题的半山腰,让它瞬间开窍;我们还会看到AI如何自己给自己出题、自己教自己,甚至像开了“天眼”一样,一边解题一边复盘。准备好了吗?让我们一起看看AI是如何学会更聪明地思考的。 00:00:31 给AI装个“测谎仪”,需要几步? 00:05:38 AI训练的“传送门”,如何让机器“开窍”? 00:11:26 遇到难题怎么办?先给自己出几道简单的 00:16:48 AI的“稳定”,原来可以又快又好 00:22:15 AI的自我修炼,如何不开天眼,也能洞察天机? 本期介绍的几篇论文: [LG] HalluGuard: Demystifying Data-Driven and Reasoning-Driven Hallucinations in LLMs [Virginia Tech & MIT & Dartmouth College] https://arxiv.org/abs/2601.18753 --- [LG] Reuse your FLOPs: Scaling RL on Hard Problems by Conditioning on Very Off-Policy Prefixes [FAIR at Meta] https://arxiv.org/abs/2601.18795 --- [LG] Teaching Models to Teach Themselves: Reasoning at the Edge of Learnability [MIT & Meta FAIR] https://arxiv.org/abs/2601.18778 --- [LG] LLM-42: Enabling Determinism in LLM Inference with Verified Speculation [Microsoft Research & University of Washington & Indian Institute of Science] https://arxiv.org/abs/2601.17768 --- [LG] Self-Distilled Reasoner: On-Policy Self-Distillation for Large Language Models [Meta & UCLA & HKU] https://arxiv.org/abs/2601.18734

27分钟
99+
5天前
AI可可AI生活的评价...

空空如也

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧