评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
AI智能总结...
AI 正在思考中...
本集内容尚未生成 AI 总结
简介...
主播...

莫妮卡同学

NLive
评价...
空空如也
小宇宙热门评论...

图乐
8个月前
上海
68
中英夹杂到底怎么捅到你们哪根大动脉了。。。。在国外生活过就很容易这样阿。。。。。人家大牛愿意来分享还得为你改习惯嚒 不爱听别听谢谢。

爱干净的小浣熊
8个月前
美国
18
嘉宾的mic太差了
richardsyw
8个月前
上海
16
我觉得不是中英文的问题 单纯就是这个男的太装了 感觉就像跟油腻男约会一样(我是男的

Jane_iwb6
8个月前
上海
13
我也长期在英文环境工作,但是如果我明确知道我今天的听众以中文听众为主,我会注意的。能够理解作为一个播客为了嘉宾感受删除一些过激言论,但是某位"大动脉"小姐那么激烈冒犯的言论也留着,是不是有点"谄媚"之嫌了。

xiaowens06
8个月前
上海
12
收音是不是有点问题,有点轻
YihangWang
8个月前
广东
9
听内容听得如此如醉,不看评论根本没留意他们说的中文还是英文。讲真,中英夹杂听感上真的有那么大的difference么?按理说这节目的target audience都是bilingual,应该把精力都花在hardcore内容本身,而不是讨论这些有的没的

乐观学研究员
8个月前
四川
9
听了敬告我还想能有多夹杂 听了发现 也太夹杂了吧😂 节目选择在国内上线 这也不愿意考虑也是多少有点傲慢了
手残大姐大
8个月前
未知
8
对课题太有兴趣了,但是这个音质,又这么多的专业名词,根本听不清
ll_3ZN1
8个月前
北京
6
忍不住再吐槽一下, 作为一个ai researcher, 请小心"比人类"这种说法, 就某一个特定问题而言, 目前来说最多只能是针对某类问题利用已知人类中最好的结果来做比较或者近似,不存在一个在人类之上的更好的结果。 否则我会怀疑这个researcher的真实水平,有没有真正深入思考目前最新进展背后的history, 有没有original thought。

姥姥王
8个月前
上海
5
以下内容来自豆包:
EP 62. Google Deepmind与LLM研究员深度解读OpenAI o1及LLM +强化学习新范式
一、播客基本信息
- 发布时间:2024 - 10 - 11 07:58:53
- 录制时间:2024年9月27日
- 嘉宾阵容
- Kimi Kong:Google deepmind研究工程师,Stanford读书期间接触强化学习,对强化学习理论和使用沿革有系统理解。
- Eric Li:Google Cloud研究科学家,Caltech博士,发表多篇LLM和MCTS结合的论文。
- 苏辉:前微信AI研究员,现国内一线互联网公司大模型负责人。
- Cage Zhong:原字节的数据科学家,现拾像科技研究员,公众号“海外独角兽”撰稿人。
- Monica Xie:美元VC投资人,前AWS硅谷团队 + AI创业公司打工人,公众号M小姐研习录主理人。
二、主要内容
1. 开场介绍
- 9月12号OpenAI o1模型发布,OpenAI CEO称其为新范式开始,结合强化学习和思维链技术,处理复杂问题能力强。
- 嘉宾来自Google Deepmind、互联网大厂等,有中美视角,将深度解读o1及相关技术。
2. 嘉宾自我介绍及相关科普(02:36)
- 嘉宾自我介绍。
- 介绍MCTS,阐述其对LLM + RL新范式的重要性。
- 提及Cursor为何值得关注,探讨语言对推理能力的价值(Physics in LLM from Allen Zhu)。
3. 对o1发布的印象及数据相关(20:25)
- 分享对o1发布印象深刻之处。
- 讨论数据的重要性和难点。
4. o1能力提升拆解及重新训练(40:16)
- 如何拆解o1能力提升的来源。
- 探讨如何重新训练一个o1。
5. o1的问题探讨(56:10 - 68:38)
- 为什么复杂的o1却解决不好简单的数学或常识问题。
- o1用于tool use任务的挑战及对agent产品的影响。
- 如何看待agent数据集难收集的问题。
- 介绍Chain of Thoughts (CoT)和MCTS,对比其对o1的作用与以前CoT做法的不同,阐述MCTS在LLM推理中的作用。
6. 强化学习相关(83:07 - 93:45)
- 解释强化学习(RL)概念,介绍其在LLM中的应用演进过程。
- 探讨RL在机器人等其他领域的应用,与在LLM应用的异同。
- 分析RL、CoT、self - play之间的关系,讨论是否真的可以无上限提升LLM推理能力。
7. o1模型结构及其他影响(106:56 - 126:54)
- 探讨o1是单一模型还是multi - agent system。
- 分析LLM和游戏的相互影响,阐述玩游戏的能力对LLM的重要性以及游戏数据对LLM训练的价值。
- 解释Google很早就开始RL相关研究,为何OpenAI o1先出来。
8. 追赶o1相关(133:16 - 141:43)
- o1新范式出现对追赶者的影响,是更容易还是更难。
- 分析追赶OpenAI o1最容易被低估和高估的方面。
9. 未来展望(143:48)
- 对未来1年和3年AI领域的预期。
三、参考文章
- openai.com
- openai.com
- OpenAI’s Strawberry and inference scaling laws
- 海外独角兽:LLM的范式转移:RL带来新的Scaling Law
- 张俊林:Reverse - o1:OpenAI o1原理逆向工程图解
四、互动信息
- 欢迎关注M小姐的微信公众号(M小姐研习录,ID: MissMStudy)了解更多干货内容。
- 欢迎在评论区留言互动。
- 可点击打赏。
- 若用Apple Podcasts收听,请给五星好评。
- 可添加小助手微信(onboard666或Nine_tunes)进Onboard!听友群,参与线下活动等。
UFO_inOD
8个月前
广东
5
怎么老听到气泡音,听着有点难受

Keenan
8个月前
新加坡
4
感谢嘉宾们给了我很多启发,支持主持人,支持嘉宾,语言只是一种形式,内容才是最重要的。嘉宾们愿意分享idea,我已经很感谢了,不可能再去苛求什么纯中纯英。
izx-copy
8个月前
美国
3
2:15:02 关于训练阶段算力需求的变化,个人感觉原因应该是MCTS或者别的RL方法会做很多探索,放大了forward pass的次数,虽然RL本身对GPU不太友好,但如果仍然用同样的卡,总体算力要求还是更高了
HD797817e
6个月前
美国
3
不介意中英夹杂,主要还是音质太差了…

无上甚深微妙法
8个月前
北京
2
还是把注意力集中在嘉宾输出的内容本身上比较重要
麦肤
8个月前
广东
1
天啊 Monica和我的声音好像啊还以为听到了我自己
Atlas
8个月前
广东
1
19:30 失语症的患者也有逻辑推理能力 🤨

anonymousccc
8个月前
上海
1
不想听就别听,我也容易有这样的习惯,英语第一通用语言没毛病。
以前有人说不适,原因是觉得我装转手就拉黑他了。不同道不出现在一个空间就行
ll_3ZN1
8个月前
北京
1
瞎扯啥呢,现在最多是simulate reasoning, reasoning的机制以及定义都没有被研究清楚, altman那个阶段的定义纯粹是给外行人听的, 对继续融资可能有帮助。 嘉宾们是假定reasoning是什么已经搞清楚了还是怎么样?要是这个问题解决了,再加上self bootstrapping,那很可能下一步要讨论人工意识了 omg...
Asherlee
8个月前
北京
1
一开始确实跟不上某位嘉宾的英语语速,听了一段感觉还好。他有时候在英文后会给一段中文解释有时候不给。英文环境里待久了就会这样,尤其他在美国的业界和学术界,能理解吧