Album
时长:
79分钟
播放:
1,041
发布:
1年前
简介...
https://xiaoyuzhoufm.com

本期嘉宾是我们第3期聊GPT4-o的算法大神Lao,本期我们帮助一些小白或者新入行业的公司,普世和加深一些大模型训练相关的知识,也希望通过这些帮助一些公司避免模型训练时候的踩坑。


【shownotes:】


01:22 大模型的基本概念?


04:50 包子对于大模型的理解


14:30 探讨智能=‘压缩’


20:00 模型训练的几种模式,高效微调PEFT,全参微调SFT的区别和比喻解释


32:50 做大模型需要哪些准备?


39:30 模型训练的链路知识和概念


49:20  一个有经验的算法的最大价值是什么


52:20 算法角度来看,GPU的各种差别?


56:40 英伟达GPU为什么成为现在的主力


01:13:15 如何评估一个模型的优劣


01:16:50 企业做模型训练之前的2个忠告


01:19:00 模型训练相关是一个庞大的知识体系,知识锚点下的自学更重要


【关于主播】


包子:


AI商业应用专家/总工程师,互联网连续创业者,爱好思考和认知。


全网ID:包子阿巴阿巴


修饼:


科普博主,出版科普读物《迷你物理学》,AI短片创作者。


全网ID(公众号、抖音、视频号、即刻、B 站等):修饼/修饼想当然


【关于我们】


从AI商业化视角,聊聊AI能不能把所有行业重新做一遍。


聊聊ai领域的新发现、新机会、新认知。


出发,一起看看未来~


【听友交流】


微信号:Edward_y

评价...

空空如也

小宇宙热门评论...
Anna亚男
1年前 广东
5
笑死了 一堆术语 很多人根本听不懂的
韩胖纸
1年前 河北
4
敲黑板,划重点:能用提示词做的一定不要用RAG,能用RAG做的一定不要用PEFT,能用PEFT做的一定不要用EFT,能用SFT做的一定不要用PT,这是个大漏斗,每一个选择都是巨大的成本
播客剪辑Vocut小助手
1年前 浙江
0
👍
施玮
1年前 江苏
0
妈呀,太硬核了,要重听
戎戎在小宇宙
1年前 江苏
0
28:16 国内的大模型其实是大应用
02Hero
1年前 浙江
0
transformer输入文字的时候哪有压缩?
Dao_er
1年前 广东
0
23:29 大模型把输入的自然语言进行embedding是为了升维进行更好的运算,而不是降维,包括现在核心的内容不是压缩,恰恰相反,现在大量的扩充训练集就是为了让一个词能扩充不同的语义,又压缩又蒸馏的,不太熟悉的领域还是让技术来讲吧🥶
Paddington
1年前 北京
0
做这个方向的pm发现说的太对了,蒸馏 压缩代表一个分支哈哈哈 先控制成本
Paddington
1年前 北京
0
男主播讲的太好了吧!爱了爱了
银河系丽人
1年前 上海
0
1:03:26 确实太多术语了 完全听不懂
奥特艾斯
1年前 广东
0
01:39 token by token,bert,transformer,ner,encoder,encoder.
奥特艾斯
1年前 广东
0
13:04 压缩:贪心算法,链路回归,softmax,argmax
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧