时长:
79分钟
播放:
1,041
发布:
1年前
简介...
本期嘉宾是我们第3期聊GPT4-o的算法大神Lao,本期我们帮助一些小白或者新入行业的公司,普世和加深一些大模型训练相关的知识,也希望通过这些帮助一些公司避免模型训练时候的踩坑。
【shownotes:】
01:22 大模型的基本概念?
04:50 包子对于大模型的理解
14:30 探讨智能=‘压缩’
20:00 模型训练的几种模式,高效微调PEFT,全参微调SFT的区别和比喻解释
32:50 做大模型需要哪些准备?
39:30 模型训练的链路知识和概念
49:20 一个有经验的算法的最大价值是什么
52:20 算法角度来看,GPU的各种差别?
56:40 英伟达GPU为什么成为现在的主力
01:13:15 如何评估一个模型的优劣
01:16:50 企业做模型训练之前的2个忠告
01:19:00 模型训练相关是一个庞大的知识体系,知识锚点下的自学更重要
【关于主播】
包子:
AI商业应用专家/总工程师,互联网连续创业者,爱好思考和认知。
全网ID:包子阿巴阿巴
修饼:
科普博主,出版科普读物《迷你物理学》,AI短片创作者。
全网ID(公众号、抖音、视频号、即刻、B 站等):修饼/修饼想当然
【关于我们】
从AI商业化视角,聊聊AI能不能把所有行业重新做一遍。
聊聊ai领域的新发现、新机会、新认知。
出发,一起看看未来~
【听友交流】
微信号:Edward_y
评价...
空空如也
小宇宙热门评论...
Anna亚男
1年前
广东
5
笑死了 一堆术语 很多人根本听不懂的
韩胖纸
1年前
河北
4
敲黑板,划重点:能用提示词做的一定不要用RAG,能用RAG做的一定不要用PEFT,能用PEFT做的一定不要用EFT,能用SFT做的一定不要用PT,这是个大漏斗,每一个选择都是巨大的成本
播客剪辑Vocut小助手
1年前
浙江
0
👍
施玮
1年前
江苏
0
妈呀,太硬核了,要重听
戎戎在小宇宙
1年前
江苏
0
28:16 国内的大模型其实是大应用
02Hero
1年前
浙江
0
transformer输入文字的时候哪有压缩?
Dao_er
1年前
广东
0
23:29 大模型把输入的自然语言进行embedding是为了升维进行更好的运算,而不是降维,包括现在核心的内容不是压缩,恰恰相反,现在大量的扩充训练集就是为了让一个词能扩充不同的语义,又压缩又蒸馏的,不太熟悉的领域还是让技术来讲吧🥶
Paddington
1年前
北京
0
做这个方向的pm发现说的太对了,蒸馏 压缩代表一个分支哈哈哈 先控制成本
Paddington
1年前
北京
0
男主播讲的太好了吧!爱了爱了
银河系丽人
1年前
上海
0
1:03:26 确实太多术语了 完全听不懂
奥特艾斯
1年前
广东
0
01:39 token by token,bert,transformer,ner,encoder,encoder.
奥特艾斯
1年前
广东
0
13:04 压缩:贪心算法,链路回归,softmax,argmax