Album

AI可可AI生活

用最通俗的语言,跟进最前沿的人工智能科研成果

fly51fly fly51fly
1.55万 订阅 875 集 1天前
播客简介
来自 @爱可可-爱生活 的第一手AI快报,用最简单易懂的语言,带你直击最前沿的人工智能科研动态。无论你是科技小白,还是行业达人,这里都有你想知道的AI故事和未来趋势。跟着我们,轻松解锁人工智能的无限可能! #人工智能 #科技前沿
节目

[人人能懂AI前沿] 从元认知到隐形失败:AI如何学会“学习”与“反思”?

AI可可AI生活

今天我们要聊一个特别有意思的话题:如何让聪明的AI变得更“靠谱”?我们会一起从几篇最新的论文中寻找答案,看看科学家们是如何教AI学会“自主学习”而不是死记硬背,又是如何通过给它换个“大记事本”来解决记性差的难题。更刺激的是,我们还会揭秘AI那些悄无声息的“隐形失败”,并学习一种看似很笨的管理办法,以及AI学会说“等一下,我再想想”背后的真正奥秘。准备好了吗?让我们一起潜入AI的大脑深处。 00:00:35 你被骗了,为什么说现在的AI根本不会“学习”? 00:06:58 AI的大脑革命,为什么“记性差”的反而更聪明? 00:13:58 你和AI的对话,藏着多少看不见的“坑”? 00:18:36 如何用“笨办法”,管好一个聪明的AI? 00:23:53 AI学会了“等一下,我再想想”? 本期介绍的几篇论文: [AI] Why AI systems don't learn and what to do about it: Lessons on autonomous learning from cognitive science [FAIR at META & NYU] https://arxiv.org/abs/2603.15381 --- [LG] M²RNN: Non-Linear RNNs with Matrix-Valued States for Scalable Language Modeling [UC Berkeley & MIT-IBM Watson Lab] https://arxiv.org/abs/2603.14360 --- [CL] Invisible failures in human-AI interactions [Bigspin AI] https://arxiv.org/abs/2603.15423 --- [LG] POLCA: Stochastic Generative Optimization with LLM [University of Wisconsin-Madison & Google DeepMind] https://arxiv.org/abs/2603.14769 --- [LG] Understanding Reasoning in LLMs through Strategic Information Allocation under Uncertainty [Microsoft Research] https://arxiv.org/abs/2603.15500

29分钟
45
1天前

[人人能懂AI前沿] AI的进化心法:从刻意练习、延迟决策到自我反思

AI可可AI生活

你有没有想过,AI画画也能像我们一样进行“刻意练习”,通过精准对比找到最佳进步方向吗?面对复杂变化的世界,为什么“慢半拍”的决策反而更准确?我们还将揭示AI训练中“又快又好”的秘密课程表,探讨项目延期背后的沟通艺术,并告诉你,你对AI的每一次追问,都在如何悄悄地训练它。本期,让我们一起从几篇最新论文中,窥探AI正在学习的那些“人间智慧”。 00:00:34 AI绘画的“刻意练习法” 00:05:25 做对事情,只需一个“时间差” 00:11:31 快与好,为什么不能兼得?AI训练中的“学霸心法” 00:17:02 为什么你的项目总在延期?答案可能不在技术,在沟通 00:22:27 你的每一次追问,都在悄悄训练AI 本期介绍的几篇论文: [CV] Finite Difference Flow Optimization for RL Post-Training of Text-to-Image Models [NVIDIA & UC Berkeley] https://arxiv.org/abs/2603.12893 --- [LG] A Reduction Algorithm for Markovian Contextual Linear Bandits [University of California, Los Angeles & Meta] https://arxiv.org/abs/2603.12530 --- [LG] Curriculum Sampling: A Two-Phase Curriculum for Efficient Training of Flow Matching [Stanford University] https://arxiv.org/abs/2603.12517 --- [LG] Optimizing Task Completion Time Updates Using POMDPs [Stanford University & Rensselaer Polytechnic Institute] https://arxiv.org/abs/2603.12340 --- [CL] Aligning Language Models from User Interactions [ETH Zurich] https://arxiv.org/abs/2603.12273

27分钟
99+
2天前

[人人能懂AI前沿] 智能操作系统、AI自进化、评估陷阱与模块化机器人

AI可可AI生活

你有没有想过,有一天跟电脑交互不再需要打开一个个App?或者,一个顶尖AI为了辅导“学生”考高分,竟然学会了“作弊”?本期节目,我们将从五篇最新论文出发,聊聊这些正在发生的奇妙变革:从重塑操作系统的“智能管家”,到学会削苹果的“灵巧机械手”,再到“专业团队”如何完胜“大力出奇迹”派的机器人。让我们一起看看,AI是如何在这些意想不到的角落,悄悄改写着未来。 00:00:36 跟App说再见,我们和电脑的相处之道正在被重写 00:07:15 当AI开始“辅导”AI,一个关于学霸、偏科和作弊的故事 00:13:38 真正的问题不是AI,而是我们测试它的方法 00:18:53 让机器人给你削苹果,到底有多难? 00:25:31 造一个聪明的机器人,是“大力出奇迹”还是“专业的人干专业的事”? 本期介绍的几篇论文: [AI] AgentOS: From Application Silos to a Natural Language-Driven Data Ecosystem [University of Kansas] https://arxiv.org/abs/2603.08938 --- [LG] PostTrainBench: Can LLM Agents Automate LLM Post-Training? [ELLIS Institute Tübingen & University of Tübingen] https://arxiv.org/abs/2603.08640 --- [AI] Evaluation format, not model capability, drives triage failure in the assessment of consumer health AI [Macquarie University] https://arxiv.org/abs/2603.11413 --- [RO] Towards Human-Like Manipulation through RL-Augmented Teleoperation and Mixture-of-Dexterous-Experts VLA [Shanghai Jiao Tong University & Sharpa] https://arxiv.org/abs/2603.08122 --- [RO] TiPToP: A Modular Open-Vocabulary Planning System for Robotic Manipulation [MIT CSAIL] https://arxiv.org/abs/2603.09971

33分钟
99+
3天前

[人人能懂AI前沿] AI教练、大公司病与说谎者:我们如何让AI更聪明?

AI可可AI生活

本期节目,我们来当一次AI的“首席优化官”,从里到外给它做个大升级。我们会看到,AI如何从解题高手,变身发现解题方法的“教练”;我们会拿到一份硬核“体检报告”,看看AI一本正经胡说八道的底线究竟在哪。我们还会发现,你和AI聊天时那些被浪费的“废话”,其实是喂饱它的宝贵养料;最后再深入AI的内部,看看万亿参数的它如何避免“大公司病”,以及一个惊人发现:困扰AI效率的瓶颈,可能不在“大脑”,而在“嘴巴”! 00:00:38 AI当教练,数学家当陪练,我们如何找到世界的隐藏规则? 00:06:42 AI会「一本正经地胡说八道」到什么程度? 00:14:04 你扔掉的“废话”,正在喂饱AI 00:19:14 万亿参数的大模型,是如何避免“公司越大,效率越低”的? 00:27:08 你的模型为什么这么笨?问题可能出在“嘴”上 本期介绍的几篇论文: [LG] Reinforced Generation of Combinatorial Structures: Ramsey Numbers [UC Berkeley & Google] https://arxiv.org/abs/2603.09172 --- [CL] How Much Do LLMs Hallucinate in Document Q&A Scenarios? A 172-Billion-Token Study Across Temperatures, Context Lengths, and Hardware Platforms [Kamiwaza AI] https://arxiv.org/abs/2603.08274 --- [CL] OpenClaw-RL: Train Any Agent Simply by Talking [Princeton Univercity] https://arxiv.org/abs/2603.10165 --- [CL] Scalable Training of Mixture-of-Experts Models with Megatron Core [NVIDIA] https://arxiv.org/abs/2603.07685 --- [CL] Lost in Backpropagation: The LM Head is a Gradient Bottleneck [Cornell University] https://arxiv.org/abs/2603.10145

33分钟
99+
4天前
评价

空空如也

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧