时长:
262分钟
播放:
3.8万
发布:
1个月前
主播...
简介...
今天的嘉宾是谢青池,他是美团光年之外的产品负责人。
一个月前,青池找到我,说他用了一年多的时间一篇一篇地啃完了200多篇AI论文,从开始全然不得要领,到后来逐渐地入门——而他希望将他的论文探索之旅开源给大家。
就这样,我们有了今天这集特别的节目。
他从200多篇论文中精选了36篇经典,4小时讲解,带你穿越AI变迁史。
他说,读论文是“给你打开一扇门”,让你能直接“与这个世界最聪明的头脑对话”。
2025年,期待我们和AI共同进步!
01:30 探索的缘起
07:25 怎么读论文?(用AI学AI)
10:20 辅助小工具和路书
论文讲解的主干:
19:35 Part 1:模型的范式变迁
故事要从1999年的第一颗GPU开始讲起
Brook: 用GPU进行计算 (2004.08)
AlexNet: 深度学习的开端(2012.10)
对序列建模:seq2seq和Attention的引入(2014.09)
蒸馏:模型能被学习吗?(2015.03)
ResNet: 比深更深(2015.12)
Transformer来了!拉开一个时代的序幕(2017.06)
AlphaGo Zero: 强化学习的突破(2017.10)
现代MoE的开端(2017.01)
CoT: Prompt Engineering的奠基之作(2022.01)
LoRA: 那个我们每天都在用的东西(2021.06)
ReAct: Agent从理论到落地(2022.10)
The Bitter Lesson: 过去70年的教训(2018.08)
01:52:58 Part 2:Infra与数据的变迁
ZeRO: 大规模的GPU并行计算(2019.10)
Scaling Law & Chinchilla: 上帝的指挥棒(2020.01 2022.03)
LAION-5B: 开源社区的英雄主义(2022.10)
The RefinedWeb: 互联网的数据也很够用(2023.06)
MegaScale: 万卡GPU集群的训练(2024.02)
02:21:29 Part 3:语言模型的发展
Word2Vec: 用机器学习将单词向量化(2013.01)
Google Translate: 神经网络的大规模线上部署(2016.09)
GPT-1,它来了(2018.06)
BERT: 曾经的王(2018.10)
GPT-2: 是时候告别微调了(2019.02)
GPT-3: ChatGPT来临前夜(2020.05)
InstructGPT: 给LLM以文明(2022.03)
Tulu 3: 后训练的开源(2024.11)
03:08:08 Part 4:多模态模型的发展
DeepVideo: 深度学习进入视频领域,Andrej 初出茅庐(2014.06)
双流网络: Karén和学术重镇牛津登场(2014.06)
图像生成的序章: GAN来了(2014.06)
Diffusion: 在GAN的阴影下,悄然成长(2015.03)
DDPM: Diffusion重回图像舞台的中央(2020.06)
ViT: 当图像遇到Transformer(2020.10)
CLIP: 文生图的奠基石(2021.03)
Stable Diffusion,它来了(2021.12)
DiT: 人们期待一个融合的未来(2022.12)
03:56:38 最后的聊天
架构抱住了硬件的大腿
今天技术的边界到达了哪?
给“站在AI世界门外张望的人”和“已经在体系中工作多年的人”的建议
【技术之美】系列:
逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”
逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”
逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”
逐篇讲解机器人基座模型和VLA经典论文——“人就是最智能的VLA”
逐段讲解Kimi K2报告并对照ChatGPT Agent、Qwen3-Coder等:“系统工程的力量”
【更多信息】
本集的投屏视频版已经同步发布于Bilibili(张小珺商业访谈录):https://www.bilibili.com/video/BV1pkyqBxEdB/?spm_id_from=333.1365.list.card_archive.click&vd_source=aa7c66a3d015be4b5bfcd520784f2790
50页完整PPT开源地址(所有论文链接附在PPT上):https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf?from=from_copylink
一个月前,青池找到我,说他用了一年多的时间一篇一篇地啃完了200多篇AI论文,从开始全然不得要领,到后来逐渐地入门——而他希望将他的论文探索之旅开源给大家。
就这样,我们有了今天这集特别的节目。
他从200多篇论文中精选了36篇经典,4小时讲解,带你穿越AI变迁史。
他说,读论文是“给你打开一扇门”,让你能直接“与这个世界最聪明的头脑对话”。
2025年,期待我们和AI共同进步!
01:30 探索的缘起
07:25 怎么读论文?(用AI学AI)
10:20 辅助小工具和路书
论文讲解的主干:
19:35 Part 1:模型的范式变迁
故事要从1999年的第一颗GPU开始讲起
Brook: 用GPU进行计算 (2004.08)
AlexNet: 深度学习的开端(2012.10)
对序列建模:seq2seq和Attention的引入(2014.09)
蒸馏:模型能被学习吗?(2015.03)
ResNet: 比深更深(2015.12)
Transformer来了!拉开一个时代的序幕(2017.06)
AlphaGo Zero: 强化学习的突破(2017.10)
现代MoE的开端(2017.01)
CoT: Prompt Engineering的奠基之作(2022.01)
LoRA: 那个我们每天都在用的东西(2021.06)
ReAct: Agent从理论到落地(2022.10)
The Bitter Lesson: 过去70年的教训(2018.08)
01:52:58 Part 2:Infra与数据的变迁
ZeRO: 大规模的GPU并行计算(2019.10)
Scaling Law & Chinchilla: 上帝的指挥棒(2020.01 2022.03)
LAION-5B: 开源社区的英雄主义(2022.10)
The RefinedWeb: 互联网的数据也很够用(2023.06)
MegaScale: 万卡GPU集群的训练(2024.02)
02:21:29 Part 3:语言模型的发展
Word2Vec: 用机器学习将单词向量化(2013.01)
Google Translate: 神经网络的大规模线上部署(2016.09)
GPT-1,它来了(2018.06)
BERT: 曾经的王(2018.10)
GPT-2: 是时候告别微调了(2019.02)
GPT-3: ChatGPT来临前夜(2020.05)
InstructGPT: 给LLM以文明(2022.03)
Tulu 3: 后训练的开源(2024.11)
03:08:08 Part 4:多模态模型的发展
DeepVideo: 深度学习进入视频领域,Andrej 初出茅庐(2014.06)
双流网络: Karén和学术重镇牛津登场(2014.06)
图像生成的序章: GAN来了(2014.06)
Diffusion: 在GAN的阴影下,悄然成长(2015.03)
DDPM: Diffusion重回图像舞台的中央(2020.06)
ViT: 当图像遇到Transformer(2020.10)
CLIP: 文生图的奠基石(2021.03)
Stable Diffusion,它来了(2021.12)
DiT: 人们期待一个融合的未来(2022.12)
03:56:38 最后的聊天
架构抱住了硬件的大腿
今天技术的边界到达了哪?
给“站在AI世界门外张望的人”和“已经在体系中工作多年的人”的建议
【技术之美】系列:
逐句讲解DeepSeek-R1、Kimi K1.5、OpenAI o1技术报告——“最优美的算法最干净”
逐篇讲解DeepSeek关键9篇论文及创新点——“勇敢者的游戏”
逐篇讲解DeepSeek、Kimi、MiniMax注意力机制新论文——“硬件上的暴力美学”
逐篇讲解机器人基座模型和VLA经典论文——“人就是最智能的VLA”
逐段讲解Kimi K2报告并对照ChatGPT Agent、Qwen3-Coder等:“系统工程的力量”
【更多信息】
本集的投屏视频版已经同步发布于Bilibili(张小珺商业访谈录):https://www.bilibili.com/video/BV1pkyqBxEdB/?spm_id_from=333.1365.list.card_archive.click&vd_source=aa7c66a3d015be4b5bfcd520784f2790
50页完整PPT开源地址(所有论文链接附在PPT上):https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf?from=from_copylink
评价...
空空如也
小宇宙热门评论...
张小珺
1个月前
德国
47
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
Ozzz
1个月前
上海
47
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
张小珺
1个月前
德国
46
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
张小珺
1个月前
德国
45
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
张小珺
1个月前
德国
45
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
Ozzz
1个月前
上海
42
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
Ozzz
1个月前
上海
36
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
Ozzz
1个月前
上海
34
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
庄明浩
1个月前
上海
30
带PPT的播客越来越多了 🐶
庄明浩
1个月前
上海
28
带PPT的播客越来越多了 🐶
猫猫不哭
1个月前
北京
25
15:48 视频:
1. 吴文达-机器学习和AI
2. 李宏毅-生成式AI时代下的机器学习(2025版本)b站有
3. 油管:Andrej Karpathy
4. b站up主-李沐:论文精读系列
5. b站up主-3 blue 1 brown:可视化科普视频
6. b站up主-zomi酱:AI infra
7. b站up主-王木头学科学
书:
1. 一站式LLM底层技术原理入门指南(飞书文档)
2. 动手学深度学习(开源,李沐有配套的讲解视频)
3. 深度学习中的数学(简单介绍概率论)
庄明浩
1个月前
上海
25
带PPT的播客越来越多了 🐶
庄明浩
1个月前
上海
25
带PPT的播客越来越多了 🐶
猫猫不哭
1个月前
北京
19
15:48 视频:
1. 吴文达-机器学习和AI
2. 李宏毅-生成式AI时代下的机器学习(2025版本)b站有
3. 油管:Andrej Karpathy
4. b站up主-李沐:论文精读系列
5. b站up主-3 blue 1 brown:可视化科普视频
6. b站up主-zomi酱:AI infra
7. b站up主-王木头学科学
书:
1. 一站式LLM底层技术原理入门指南(飞书文档)
2. 动手学深度学习(开源,李沐有配套的讲解视频)
3. 深度学习中的数学(简单介绍概率论)
张小珺
1个月前
德国
17
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
张小珺
1个月前
德国
17
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
Evarle
1个月前
广东
17
推荐 aminer.cn,很专业的论文阅读网站
RayHu
1个月前
上海
16
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 https://www.xiaoyuzhoufm.com/podcast/665593980c1cea6c57faa3b9
张小珺
1个月前
德国
16
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
张小珺
1个月前
德国
16
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
RayHu
1个月前
上海
15
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 https://www.xiaoyuzhoufm.com/podcast/665593980c1cea6c57faa3b9
RayHu
1个月前
上海
15
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 https://www.xiaoyuzhoufm.com/podcast/665593980c1cea6c57faa3b9
RayHu
1个月前
上海
15
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 https://www.xiaoyuzhoufm.com/podcast/665593980c1cea6c57faa3b9
猫猫不哭
1个月前
北京
14
15:48 视频:
1. 吴文达-机器学习和AI
2. 李宏毅-生成式AI时代下的机器学习(2025版本)b站有
3. 油管:Andrej Karpathy
4. b站up主-李沐:论文精读系列
5. b站up主-3 blue 1 brown:可视化科普视频
6. b站up主-zomi酱:AI infra
7. b站up主-王木头学科学
书:
1. 一站式LLM底层技术原理入门指南(飞书文档)
2. 动手学深度学习(开源,李沐有配套的讲解视频)
3. 深度学习中的数学(简单介绍概率论)
Joes东
1个月前
广东
13
这篇播客可以预定为年度最佳关于AI的播客了吧
Joes东
1个月前
广东
13
这篇播客可以预定为年度最佳关于AI的播客了吧
猫猫不哭
1个月前
北京
13
15:48 视频:
1. 吴文达-机器学习和AI
2. 李宏毅-生成式AI时代下的机器学习(2025版本)b站有
3. 油管:Andrej Karpathy
4. b站up主-李沐:论文精读系列
5. b站up主-3 blue 1 brown:可视化科普视频
6. b站up主-zomi酱:AI infra
7. b站up主-王木头学科学
书:
1. 一站式LLM底层技术原理入门指南(飞书文档)
2. 动手学深度学习(开源,李沐有配套的讲解视频)
3. 深度学习中的数学(简单介绍概率论)
南希的无限游戏
1个月前
北京
12
yysy,他不是光年的产品负责人
Joes东
1个月前
广东
12
这篇播客可以预定为年度最佳关于AI的播客了吧
Joes东
1个月前
广东
12
这篇播客可以预定为年度最佳关于AI的播客了吧
南希的无限游戏
1个月前
北京
11
yysy,他不是光年的产品负责人
南希的无限游戏
1个月前
北京
11
yysy,他不是光年的产品负责人
南希的无限游戏
1个月前
北京
11
yysy,他不是光年的产品负责人
张小珺
1个月前
德国
11
获取完整ppt的链接:https://w7py8ou4dk.feishu.cn/wiki/KacewdlmSiSGC9kUOKDch9gwnKf
蜜思安诗若普
1个月前
上海
9
怎么咽口水声音这么大,醉了
春天里面有事儿
1个月前
广东
9
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
春天里面有事儿
1个月前
广东
9
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
春天里面有事儿
1个月前
广东
9
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
春天里面有事儿
1个月前
广东
9
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
春天里面有事儿
1个月前
广东
8
这时长,够硬核!越来越向老罗看齐了 哈哈哈哈
张小珺
1个月前
德国
8
期待和你一起读论文,领略科技平权,感受技术之美,做你的赛博组会~ (•̀ᴗ•́)و ̑̑
tienchiu
1个月前
江苏
7
这期内容胜在嘉宾的分享思路!通过串历史背景脉络来讲论文框架。之前几期讲具体论文的嘉宾,也有的会讲论文背景和演进历史,这些why往往是读论文时理解what及how具有极其重要的意义。
蜜思安诗若普
1个月前
上海
7
怎么咽口水声音这么大,醉了
蜜思安诗若普
1个月前
上海
7
怎么咽口水声音这么大,醉了
蜜思安诗若普
1个月前
上海
7
怎么咽口水声音这么大,醉了
RayHu
1个月前
上海
7
听完了第一部分,非常巧,最近在做一个 AI 领域智识性强的文章合集的(AI)播客版(包括论文,但如播客中所说更多是表达相对没那么多数学、但思想深刻影响了范式的论文),开篇就是苦涩的教训,最新一期更到姚顺雨的 ReAct,也包括了播客中提到的硬件彩票。感兴趣的朋友可以瞅瞅👀 https://www.xiaoyuzhoufm.com/podcast/665593980c1cea6c57faa3b9
庄明浩
1个月前
上海
7
带PPT的播客越来越多了 🐶
jhwei
1个月前
北京
6
1:40:02 先说是不是,再说为什么。美国也有不写代码的manager,国内也有很多写一线代码的老板。
嘉宾确实讲的比较通俗,也比较全面,但是不够严谨,存在很多错误归因,比如上面提到的管理层写代码问题。如果对相关的内容了解不清楚的初学者,很容易会留下错误的印象。
比如后面,schuhman其实是被openai的dall-e震撼到才有了做开源数据集laion的想法,而不是因为clip。clip是开源了权重,而dall-e是连权重都没有开源
偶尔有光
1个月前
上海
6
口水声太大了
jhwei
1个月前
北京
6
1:40:02 先说是不是,再说为什么。美国也有不写代码的manager,国内也有很多写一线代码的老板。
嘉宾确实讲的比较通俗,也比较全面,但是不够严谨,存在很多错误归因,比如上面提到的管理层写代码问题。如果对相关的内容了解不清楚的初学者,很容易会留下错误的印象。
比如后面,schuhman其实是被openai的dall-e震撼到才有了做开源数据集laion的想法,而不是因为clip。clip是开源了权重,而dall-e是连权重都没有开源
tienchiu
1个月前
江苏
6
这期内容胜在嘉宾的分享思路!通过串历史背景脉络来讲论文框架。之前几期讲具体论文的嘉宾,也有的会讲论文背景和演进历史,这些why往往是读论文时理解what及how具有极其重要的意义。
jhwei
1个月前
北京
6
1:40:02 先说是不是,再说为什么。美国也有不写代码的manager,国内也有很多写一线代码的老板。
嘉宾确实讲的比较通俗,也比较全面,但是不够严谨,存在很多错误归因,比如上面提到的管理层写代码问题。如果对相关的内容了解不清楚的初学者,很容易会留下错误的印象。
比如后面,schuhman其实是被openai的dall-e震撼到才有了做开源数据集laion的想法,而不是因为clip。clip是开源了权重,而dall-e是连权重都没有开源
jhwei
1个月前
北京
6
1:40:02 先说是不是,再说为什么。美国也有不写代码的manager,国内也有很多写一线代码的老板。
嘉宾确实讲的比较通俗,也比较全面,但是不够严谨,存在很多错误归因,比如上面提到的管理层写代码问题。如果对相关的内容了解不清楚的初学者,很容易会留下错误的印象。
比如后面,schuhman其实是被openai的dall-e震撼到才有了做开源数据集laion的想法,而不是因为clip。clip是开源了权重,而dall-e是连权重都没有开源
Ozzz
1个月前
上海
6
已经讲得很好了,尤其是把这个编年史梳理出来,对于我们这种非行业内的了解整个业界的发展很有帮助。不过同时也能感觉出来这种形式比较尴尬的一点是,对于懂的人来说比较浅,但是对于之前没接触过领域相关的知识的人来说又太深了。很多技术名词突然就出现了,也没有解释(当然也不可能仅仅通过几分钟音频能解释清楚),之前不了解这个相关知识的话是很难follow上这个内容的。嘉宾开始推荐的资料都很不错。同样超级推荐Andrej Karpathy在油管的zero to hero系列
tienchiu
1个月前
江苏
5
这期内容胜在嘉宾的分享思路!通过串历史背景脉络来讲论文框架。之前几期讲具体论文的嘉宾,也有的会讲论文背景和演进历史,这些why往往是读论文时理解what及how具有极其重要的意义。
tienchiu
1个月前
江苏
5
这期内容胜在嘉宾的分享思路!通过串历史背景脉络来讲论文框架。之前几期讲具体论文的嘉宾,也有的会讲论文背景和演进历史,这些why往往是读论文时理解what及how具有极其重要的意义。
偶尔有光
1个月前
上海
4
口水声太大了
偶尔有光
1个月前
上海
4
口水声太大了
偶尔有光
1个月前
上海
4
口水声太大了
Joes东
1个月前
广东
4
这篇播客可以预定为年度最佳关于AI的播客了吧
小事儿读书
1个月前
北京
3
如果李飞飞自传出的早,你不就用这么费劲了
LEO老狮
1个月前
中国香港
3
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
程辉_IYHM
1个月前
北京
3
2:41:51 BERT和GPT都是基于Transformer构建的,标准的Transformer是encoder-decoder架构,但BERT是encoder only的模型,GPT是decoder only的模型
小事儿读书
1个月前
北京
3
如果李飞飞自传出的早,你不就用这么费劲了
LEO老狮
1个月前
中国香港
3
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
程辉_IYHM
1个月前
北京
3
2:41:51 BERT和GPT都是基于Transformer构建的,标准的Transformer是encoder-decoder架构,但BERT是encoder only的模型,GPT是decoder only的模型
LEO老狮
1个月前
中国香港
3
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
程辉_IYHM
1个月前
北京
3
2:41:51 BERT和GPT都是基于Transformer构建的,标准的Transformer是encoder-decoder架构,但BERT是encoder only的模型,GPT是decoder only的模型
LEO老狮
1个月前
中国香港
3
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
程辉_IYHM
1个月前
北京
3
2:41:51 BERT和GPT都是基于Transformer构建的,标准的Transformer是encoder-decoder架构,但BERT是encoder only的模型,GPT是decoder only的模型
春天里面有事儿
1个月前
广东
3
从Transformer到多模态,AI技术脉络讲得很明白,帮助入门者少走点弯路,有些收获
南希的无限游戏
1个月前
北京
3
yysy,他不是光年的产品负责人
Deemo2025
1个月前
北京
2
最近一年也看了100多篇论文,听了这一期仿佛又再读了一遍。感谢小珺和青池
rexzhang
1个月前
上海
2
谢青池是想要了解大模型的人的榜样,推荐!
有容乃大_Qm51
1个月前
广东
2
可以提个小建议吗,这个 bgm 有点奇怪🤔考虑换一个试试吗
Ding_6wSy
1个月前
河南
2
质量好高,听了好多遍
Deemo2025
1个月前
北京
2
最近一年也看了100多篇论文,听了这一期仿佛又再读了一遍。感谢小珺和青池
rexzhang
1个月前
上海
2
谢青池是想要了解大模型的人的榜样,推荐!
有容乃大_Qm51
1个月前
广东
2
可以提个小建议吗,这个 bgm 有点奇怪🤔考虑换一个试试吗
Ding_6wSy
1个月前
河南
2
质量好高,听了好多遍
小事儿读书
1个月前
北京
2
如果李飞飞自传出的早,你不就用这么费劲了
rexzhang
1个月前
上海
2
谢青池是想要了解大模型的人的榜样,推荐!
有容乃大_Qm51
1个月前
广东
2
可以提个小建议吗,这个 bgm 有点奇怪🤔考虑换一个试试吗
Ding_6wSy
1个月前
河南
2
质量好高,听了好多遍
小事儿读书
1个月前
北京
2
如果李飞飞自传出的早,你不就用这么费劲了
rexzhang
1个月前
上海
2
谢青池是想要了解大模型的人的榜样,推荐!
有容乃大_Qm51
1个月前
广东
2
可以提个小建议吗,这个 bgm 有点奇怪🤔考虑换一个试试吗
Ding_6wSy
1个月前
河南
2
质量好高,听了好多遍
Tim小邬
1个月前
浙江
2
一次性听完了,分享的太好了。嘉宾本身就跟分享内容里每一位在AI领域里的那些个科学家一样,认真做事总是没错。
MW王Mikey
1个月前
北京
1
更正一点,硅谷也有细致的分工,大部分公司也分前后端,全栈的比例比国内高,但不是主流。硅谷的大厂人数都是十几万量级,管理是很重的工作,细致的分工是必要的。
说一说中美差异的原因。
直接原因:中美 TOP10科技公司,不说市值,利润就差 10 倍。单用户 LTV 差的更多。
高利润才允许高附加值的培育,研究、基础创新才能有空间搞。中国的核心商业氛围是大公司直接影响的。当批量化需求的增长到达边界了,供给方还想创造数字上的增长。
互联网公司就会诞生大量的“运营”;就会有在精神上集体武装大家,假装大家还在奔向增长的“黑话”;大家就会“内卷”;就会手拉着手走向集体地狱的“降本增效”。所以运营这个工作在中国是很重的。
根本原因:互联网兴盛于 2000 年,此前的中美社会、商业氛围相差巨大,一个已经现代化成熟,一个刚刚开始摆脱小农经济。消费认知这种集体意识的转向和升级是需要长周期的,即使2000 年后中国增速狂奔,但对于家里留多少钱?花多少钱?钱花在哪里?这些问题和美国社会依然有相当大的差异。
MW王Mikey
1个月前
北京
1
更正一点,硅谷也有细致的分工,大部分公司也分前后端,全栈的比例比国内高,但不是主流。硅谷的大厂人数都是十几万量级,管理是很重的工作,细致的分工是必要的。
说一说中美差异的原因。
直接原因:中美 TOP10科技公司,不说市值,利润就差 10 倍。单用户 LTV 差的更多。
高利润才允许高附加值的培育,研究、基础创新才能有空间搞。中国的核心商业氛围是大公司直接影响的。当批量化需求的增长到达边界了,供给方还想创造数字上的增长。
互联网公司就会诞生大量的“运营”;就会有在精神上集体武装大家,假装大家还在奔向增长的“黑话”;大家就会“内卷”;就会手拉着手走向集体地狱的“降本增效”。所以运营这个工作在中国是很重的。
根本原因:互联网兴盛于 2000 年,此前的中美社会、商业氛围相差巨大,一个已经现代化成熟,一个刚刚开始摆脱小农经济。消费认知这种集体意识的转向和升级是需要长周期的,即使2000 年后中国增速狂奔,但对于家里留多少钱?花多少钱?钱花在哪里?这些问题和美国社会依然有相当大的差异。
执剑
1个月前
广东
1
好耶 更新啦
啾啾啧啧
1个月前
上海
1
有没有好心人ai提取了文稿,求一份
方进
1个月前
江苏
1
The bitter lesson确实让人比较震撼😊
LEO老狮
1个月前
中国香港
1
這位嘉賓建議可以常駐,每次講某個方面的問題講透。
-王林轩Lention
1个月前
浙江
0
听爽了
HD490656x
1个月前
湖北
0
请问用的是哪个翻译软件读论文?
HD503776k
1个月前
江苏
0
b站没有ppt啊,专门过去看了
姐姐爱吃红烧肉
1个月前
上海
0
17:01 推荐的博主都超级好!如果有shownotes 总结出来就好了
量产型俊男
1个月前
广东
0
57:36 我就想确认一下,反复听到嘉宾的发音"cānchā网络",说的是"参差cēncī网络"吗?