评分
暂无评分
0人评价
5星
0%
4星
0%
3星
0%
2星
0%
1星
0%
AI智能总结...
AI/summary > _
AI 正在思考中...
本集内容尚未生成 AI 总结
简介...
https://xiaoyuzhoufm.com

3月,我们连续从多个角度关注了中国AGI进展,这集让我们把目光投向海外,对刚过去的 2024 Q1全球大模型的赛局做一个场上的复盘和点评。嘉宾是《商业访谈录》的老朋友、拾象CEO广密。

他提出,我们正处于一场宏大的“AGI大基建”时期。正如上世时期纪90 年代克林顿推出美国信息高速公路建设,这才有了后面的美国互联网泡沫破裂和互联网黄金20年——如果没有基建,就不可能有应用大爆发。

我们的播客节目在腾讯新闻首发,大家可以前往关注哦,这样可以第一时间获取节目信息和更多新闻资讯:)

(01:45) - 盘点2024 Q1

(03:40) - 开源 & 闭源

(06:32) - AGI 是马拉松

(06:45) - 物理硬件成阻碍AGI最大因素

(08:05) - 失败案例Inflection

(08:41) - 黄仁勋的主权 AI、T5T、不鼓励996

(10:34) – 渐进式解锁

(12:29) - 改变软件生产方式+信息检索的变革

(16:50) - 能源 + 芯片=产出智能

(19:46) - 南坡是模型,北坡是产品

(23:41) - 突然给经济社会加了两道税

(25:30) - AGI大基建:造价与玩家

(26:34) - 训练GPT-3.5和GPT-4,消耗多少算力和能源?

(39:37) - 电+芯片=产出智能

(40:38) - Scaling Law

(47:26) - AGI登山路线图和路标

(57:40) - OpenAI

(01:04:02) – 集团军作战,如何结盟?

(01:05:12) – Apple、英伟达、阿里

(01:07:20) – Killer App、硅谷投资三大件

(01:09:25) – 自动驾驶和机器人

(01:15:47) – 我们作为碳基智能,为什么在追求硅基智能上这么热衷?

(01:17:00) – Sam、黄仁勋、马斯克

广密的上一集:《54. 口述全球大模型这一年:人类千亿科学豪赌与参差的中美景观》

【更多信息】

本集文字版本:腾讯新闻原文 & 作者的收藏夹

联络我们:微博@张小珺-Benita,小红书@张小珺jùn

更多信息欢迎关注公众号:张小珺

主播...
张小珺
评价...

空空如也

小宇宙热门评论...
语言的言
1个月前 浙江
0
44:46 train更大的模型追求智能 train更小的模型满足商用 不过现在套壳也可以商用。。。
Ian言
1年前 北京
1
Scaling law已经被证明了吗?为什么小参数模型也能比大参数展现出更好的能力?如果Scaling Law不成立,是不是GPU也就没有相应规模的市场?
Effyuzuru
10个月前 广东
1
好像没看到人问片尾曲
香放
11个月前 黑龙江
1
好节目。
idlh
11个月前 广东
1
1:10:08 马上就来中国,fsd入华了
KKGoAI
11个月前 广东
1
片尾曲是啥,还挺好听的
围吉桐桐
1年前 澳大利亚
1
李广密有x号么
听书读书
1年前 北京
2
这期会发到公众号上吗
森先生你好
11个月前 美国
2
非常好奇广密是如何获取这些资讯的
LiveLiveLive
1年前 浙江
2
专注海外一线的AI最新、最有价值的信息收集和整理,都用大模型摘要总结和翻译好了,实时更新,推荐大家用GrowMinds这个晓橙旭,学习和follow都很省时省力
Julia_Scott
1年前 上海
2
1:15:01 “先去大模型,再去机器人”😏
JASting
1年前 北京
2
07:01 今年Q1新learnings: 物理硬件成为阻碍AGI时间表最大因素:1️⃣GPU的数据中心和物理硬件瓶颈大(不是单靠无限加GPU和数据就能到AGI);2️⃣能源基建老旧、能源结构与激增用电量的匹配度弱。因此,AGI是马拉松不是冲刺赛,大家还有充足时间;
HD190735n游猫猫
1年前 日本
3
听到翻笔记和类似划重点的声音
JASting
1年前 北京
3
25:32 目前是AGI大基建时期,目前关键瓶颈是“算力和数据中心建设”。就是即使有万张卡也不能快速用起来,万卡集群的互联通信能力、稳定性、能耗、数据中心的降温要求都达不到。比特驱动的数字世界迭代快,原子驱动的物理世界迭代跟不上。好在都是工程问题,不是科研问题,都可以解决。
Joes东
10个月前 广东
4
强烈建议这哥们再来一期 多模态 agent 已经被他开盒了
Guangmi
1年前 北京
5
对AGI最重要的问题是啥?今天最大非共识是啥?
HedgeSage
1年前 浙江
5
AGI投研第一人!
JASting
1年前 北京
11
45:06 训练量=参数量*训练token量*6。 GPT4为例,1.8万亿参数,13万亿token,6倍=2.5万GPU,19.5万亿次计算,叠加50%利用率。
庄明浩
1年前 上海
20
Guangmi提供了基本上完整的海外AI大模型的竞争和数据视角
pleasego
1年前 陕西
26
一如既往的高质量,小珺聊大模型 AI AGI这些节目完全可以算作华语世界科技商业领域最优质的内容输出了
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧