Transformer为何不可取代 | 拉施卡 | 模型MoE
AI前沿

Transformer为何不可取代 | 拉施卡 | 模型MoE

19分钟 262 1个月前
节目简介
来源:小宇宙
2026年,大模型领域已经告别野蛮生长,进入了从1到N的极致精炼时代。Transformer真的不可撼动吗?为什么DeepSeek V3采用的架构会成为行业标准?本期基于AI大牛拉施卡的深度访谈,为你揭秘正在发生的后训练革命,RLVR算法如何通过自动化验证杀死传统的RLHF,以及o1模型如何开启推理扩展的新范式。我们将跳出参数规模的迷信,直击世界模型、内部状态预测和递归推理等核心技术干货,解析为何未来的AI胜负手不在架构颠覆,而在工程细节的千锤百炼。
聊天讨论群,可加微信gxjdian入群,需备注,来自播客AI前沿

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧