评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
AI智能总结...
AI 正在思考中...
本集内容尚未生成 AI 总结
简介...
主播...

张小珺
评价...
空空如也
小宇宙热门评论...

张小珺
1周前
北京
45
如果大家只听一集播客节目了解多模态,希望是这集🤓
HD963717x
1周前
河南
29
内容很感兴趣,能不能修下音

墨翕Lyn
6天前
浙江
26
其实这一期信息量很大,值得反复体会。嘉宾是真的专业度很高,既有学术的思路和洞察,也有充分的工业实践和经验,既给出了相对high level的洞见,也有具体实践给出来的经验教训。
在这个前提下,音质问题忍了,放慢速度仔细听。
西布
1周前
陕西
20
1声音不清楚。2只是陈述,没有思想交锋。

禹创
6天前
江苏
17
期待文字稿
Baca
6天前
美国
14
这期嘉宾无私的分享的真的非常好 属于虽然有损音质 但也是必听的推荐…尤其是分享了大模型训练研究过程中的面对种种问题挫折再解决的过程~ 这是非常有价值的~其实很多专家的采访就像播客中探讨的next token prediction直线推理一样…只分享自己的成功和正确的判断 而将踩过的坑self-reflection这部分都一笔带过…其实这部分踩坑爬坑的经历都是非常有价值的部分

TingCraft
4天前
广东
11
这集内容音质调动了我全部的多模态理解力^_^
HD621579t
6天前
新西兰
8
内容很好,但声音效果太差了。

reddream
1周前
北京
7
嘉宾有很强的洞察力,听起来很有收获。不过录音质量似乎可以提升
cmw_swQi
6天前
江苏
6
这里很有启发,next token prediction体现了某种效率优先的原则,所以目前在编码,文本总结压缩这些任务上是非常好用的工具,但是在数学和语义丰富保持上是取舍了
cmw_swQi
5天前
江苏
6
1:11:48 单步的最大复杂度是否超过模型transformer token的复杂度很有启发,比较本质
取个好名字真难
6天前
新加坡
5
这样好的内容出现在这个频道,就证明这个频道是AI时代必须关注的频道了
kun_2ATw
6天前
北京
4
47:13 这里解释跳步的思考,有意思有道理

却东
6天前
浙江
3
1:05:56 项羽老师对于o系列模型的理解我不太能赞同,反思何以被理解为裁剪动作空间... 任何学习(不限于反思)都是在裁剪动作空间,裁剪动作空间(塑造模型的energy landscape)也不必通过反思来进行。裁剪几乎全部在预训练完成(对比一下预训练和rl的信息量),rl是蛋糕上的樱桃,预训练才是蛋糕的主体
扬_GtaD
5天前
广东
3
是录音设备不好还是他低音炮啊?一直听一直皱眉。
王强_Andy
6天前
北京
3
48:43 跟人脑机制太像了 哈哈 盲目自信和节省资源
伊利丹怒风
1天前
上海
2
很多观点很有深度,对Agent、对多模态、对世界模型,很有触动,感谢
bj_yS8q
1天前
新加坡
2
干活很多,听完能理解阶跃真实在国内在做agi的公司!
阿白_kA7N
4天前
北京
2
声音听着太难受了。
找了个工具声音转文字,再ai朗读都好多了。
期待官方文字稿

持续迭代
4天前
北京
2
这个收音…实在是没法听下去
LK_bcDh
4天前
重庆
2
音质实在太差了,听不下去。
夏尔_牧
3天前
西班牙
2
听不清楚
duducheng
6天前
瑞士
2
很有水平!

飞扬之音
1周前
河南
2
嘉宾的声音听不是很清楚
HD254201v
6天前
北京
2
17:46 很棒,很牛的思路,很早的洞察
朱有以
3天前
湖北
1
这期真大佬,前两天刚学ResNet
Kiedis
2天前
广东
1
很好奇,博弈类问题难以激发和泛化的本质原因是什么。这个领域也有不少pattern,在预训练时,肯定也压缩了这类信息。

frank_ocean
3天前
上海
1
xiangyu thank you for your honest take
字节
3天前
浙江
1
这样的音质都愿意反复听,绝对是找到了pmf🤣
大鱼_mjSh
3天前
北京
1
感谢小珺
HD145942q
5天前
美国
1
这一集太强了👍
Tova
5天前
上海
1
18:26 嘉宾觉得纯视觉研究表征与mlp研究推理等更高级的智能之间存在gap
HD771979z
4天前
江苏
1
感谢这么高质量的分享👍
HD112767m
6天前
北京
1
太强了
Baca
1周前
美国
1
沙发!先赞后听!
WangHeng
1周前
山东
1
想起了 Prolog 哈哈
570_iOjM
6天前
北京
1
大牛啊
ABZ2180
1周前
北京
1
12:25 CV(计算机学习),笔误

却东
6天前
浙江
1
15:03 哈哈,想起了项羽老师的那篇从不变特征视角看mim

却东
6天前
浙江
1
0:59:00 预训练就是在塑造模型的energy landscape,数据所在的位置成为深深的峡谷,其余的位置成为耸立的山峰。
山岛于鱼余雨
6天前
上海
0
从大模型泛化能力的产生中学到一个属于人的常识,反思确实能够让人变得更有能力。
HD1000455u
6天前
江苏
0
07:54 是有人在嗑瓜子吧
煊安-语迟者说
1周前
北京
0
感觉嘉宾擅长的就是研究回字的第四种写法,不是说这样不对,而是觉得在 AI 的这个阶段以及如何思考多模态,似乎这个思路是错的