Album
时长:
29分钟
播放:
225
发布:
2周前
主播...
简介...
https://xiaoyuzhoufm.com
你有没有想过,一个更聪明的AI,是应该更会“思考”,还是更会“偷懒”?最新论文告诉我们,让AI学会用“记忆”分担计算,反而能让它更专注于难题。当AI面对一本几十万字的小说时,它又是如何像我们一样“做笔记”,避免“七秒记忆”的?更有趣的是,如果把AI关进小黑屋,不给任何学习资料,它竟能通过“左右互搏”实现自我进化。最后,我们会深入AI的内心世界,看看它“一本正经胡说八道”时,脑子里究竟走了哪两条路,以及它那令人惊叹的“举一反三”,可能根本不是在学习,而是在“对答案”。
00:00:48 为什么“偷懒”的AI,反而更会思考?
00:06:15 AI的“七秒记忆”,有救了?
00:11:46 AI的“闭关修炼”,不喂数据,如何变强?
00:16:53 AI为什么会“一本正经地胡说八道”?它的脑子里有两条路
00:22:20 别再说AI在“学习”了,它可能只是在“对答案”
本期介绍的几篇论文:
[LG] Conditional Memory via Scalable Lookup: A New Axis of Sparsity for Large Language Models
[DeepSeek-AI]
https://arxiv.org/abs/2505.11080
---
[LG] Gecko: An Efficient Neural Architecture Inherently Processing Sequences with Arbitrary Lengths
[University of Southern California & Meta AI Research]
https://arxiv.org/abs/2601.06463
---
[LG] Dr. Zero: Self-Evolving Search Agents without Training Data
[Meta Superintelligence Labs]
https://arxiv.org/abs/2601.07055
---
[CL] Two Pathways to Truthfulness: On the Intrinsic Encoding of LLM Hallucinations
[Peking University & Microsoft Research Asia]
https://arxiv.org/abs/2601.07422
---
[LG] Filtering Beats Fine Tuning: A Bayesian Kalman View of In Context Learning in LLMs
[UC Berkeley]
https://arxiv.org/abs/2601.06100
评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧