YC投资人的2025年终盘点:那些让人意外的AI江湖事儿

AI 进化论

00:16 今天我们要聊一聊2025年人工智能领域的一些让人意想不到的新的变化。包括一些创业公司和大公司之间的新的格局,以及AI经济趋于稳定,算力变得越来越便宜和太空数据中心这些非常有意思的发展。 00:32 是啊这些变化真的非常的吸睛,那我们就直接进入今天的讨论。 00:36 咱们第一个要说的就是2025年这个AI模型领域出现的一些让人意外的新的趋势。其中有一个特别让人惊讶的就是Claude竟然超过了OpenAI,成为了创业者的新宠。这到底是怎么一回事儿? 00:51 这个转变真的是让所有人都大跌眼镜。因为在2024年的时候,OpenAI还是占据着90%以上的市场份额。但是到了2025年,在YC的冬季班里面,突然之间Anthropic的Claude就拔得头筹了,成为了这些创业公司最最常用的一个AI模型。就感觉像是你家楼下的一个小餐馆,突然间把麦当劳给挤下去了,成为了最火的一个地方。 01:16 对,这确实挺让人意外的那具体是什么原因让Claude在短时间内获得了创业者的青睐呢? 01:21 最主要的一个原因就是Claude的编程能力非常强。有很多创始人自己用着用着就习惯了,然后就直接把它嵌入到自己的产品里面了。就像你习惯了用某个品牌的手机,你就懒得去换了。 01:33 听你这么一说确实很有道理。那除了这个编程能力之外,还有没有其他因素促成了Claude的逆袭? 01:40 当然有了。有意思的是,虽然大部分人用Claude并不是为了编程,但是因为程序员们在写代码的时候爱上了他,所以就产生了一种信任迁移。反正大家觉得Claude靠谱,干脆都用它。 01:55 看来口碑的力量是很强大的,那其他的AI模型有没有什么亮眼的表现? 01:59 有啊,Google的Gemini其实表现也非常抢眼,它的市场份额从去年的2%到3%涨到了23%。现在的AI模型界可以说是进入了一个三国杀的时代。 02:11 对了,2025年的这个AI经济出现了哪些让人意想不到的新变化? 02:17 说起来2025年真的是画风突变,AI经济结构竟然稳定下来了。之前大家都觉得这个行业随时都会地震,因为你永远都不知道下一个大模型发布会不会把现有的商业模式全部推翻。但是2025年整个格局就非常清晰了。 02:33 听起来确实是稳定了不少。那具体现在AI行业内的分工是怎么样的? 02:37 现在模型层的话就是像OpenAI、Anthropic、Google这些大厂,他们就是专心的造AI引擎。然后应用层的话就是那些创业公司,他们就是拿这些引擎去做各种各样的产品。还有一层就是基础设施层,这些公司就是专门提供算力和工具的。大家都找到了自己的生态位,都能赚钱,皆大欢喜。 02:59 既然现在AI行业格局已经清晰了,那这种情况对于创业者来讲,跟以前比有什么不一样的地方。 03:05 以前很多创业者就是抱着一种"苟住,等下一个大模型发布就有新机会"。但是现在这种躺平思维不灵了,找创业点子又回到了正常难度。 03:16 明白了,那咱们再来看看一个非常有意思的观点。就是很多人都在说AI投资是一个巨大的泡沫。但是为什么YC反而觉得就算是泡沫,对于创业者来讲也不是一件坏事。 03:30 因为他们举了一个2000年互联网泡沫的例子,就是当时也有很多公司倒闭了,但是却留下了很多闲置的光纤网络。然后这些便宜的带宽就给后来YouTube这样的平台创造了机会。 03:43 原来泡沫破裂之后,反而还能留下一些有用的资源,那AI领域有类似的情况吗? 03:49 现在也是一样,就是大公司疯狂砸钱建GPU集群。就算未来需求下降了,这些算力还在,创业者就能用便宜的算力做产品。相当于大公司承担了风险,然后创业者享受了红利,这笔买卖挺划算的。 04:04 看来这对于创业公司来说是个好消息。那现在这个算力市场的竞争格局有没有什么新的变化? 04:11 现在就是竞争激烈了,就不再是Nvidia家独大了,AMD和Google的TPU都在分蛋糕。对创业者来说,这就意味着更便宜的算力和更多选择。 04:21 说到这儿,咱们再来说一个特别炸裂的话题,就是太空数据中心这事儿我觉得好多人都觉得是天方夜谭,但是现在竟然有越来越多的科技巨头都在认真的考虑这件事情,那背后的原因到底是什么? 04:35 早在2024年的夏天,就有一个叫StarCloud的YC公司提出了要在太空建数据中心。那个时候大家都觉得太异想天开了。但是到了2025年年底的时候,画风突变。你看Google正式发布了Project Suncatcher,也就是太空数据中心计划。然后马斯克也公开表示说Space X会做这个事情,而且他在很多采访里面都提到这个话题。 05:02 这些大公司都开始布局,说明这个事情确实是有一些不得不做的理由。 05:07 没错,因为地球上的限制太多了,比如说电力不够用,有公司都开始用喷气发动机来发电了。然后土地也很紧张,像加州连盖房子都不够地方。还有就是监管太严格,既然地球不够用,那就上太空呗。 05:21 这个思路真的是打开了,就是把数据中心和能源问题都放到太空去解决。那有没有什么公司在太空能源这个领域有比较突破性的进展? 05:32 有啊,YC甚至投资了一家叫Zephr Fusion的公司,专门研究在太空搞核聚变发电。他们的逻辑很简单,在地球上搞不定的物理问题在太空就能解决。想象一下数据中心在轨道上飘着,旁边有个小型的人造太阳供电,这场景比科幻片还科幻。 05:52 真的是未来感十足。接下来我们要讲的这个话题也同样充满了未来感,就是"Vibe Coding",也就是是凭感觉编程。这个东西现在发展到什么程度了?有没有什么代表性的公司或者产品? 06:06 "Vibe Coding"其实一开始只是YC观察到的一个现象,但是现在已经变成了一个真实的产品类别。现在虽然还不能完全靠AI来写出完美无缺的生产代码,但是已经有很多公司在这个方向上面做了非常多的尝试,而且也取得了不错的进展。 06:24 感觉好像写代码都变成了一种艺术创作了。那这个东西有没有得到一些科技巨头的认可呢? 06:31 连Google都入场了,他们发布的演示视频里面,创始人Sergey就站在工程师身后,看他凭感觉写代码。 06:38 真是太神奇了。接下来我们要讨论的是一个关于AI和团队规模的一个非常有意思的话题。就是现在很多创业公司,他们在获得了融资之后,明明有了AI的帮助,为什么还是选择要扩充团队呢? 06:52 这个其实很有意思,因为在2024年的时候,大家都在说有了AI创始人不用招人就能做到百万美元营收。但是现实很打脸,就这些公司拿到A轮融资之后,还是得老老实实开始招人了。 07:07 这么说的话,看来AI并没有让招人这件事儿变得多余。 07:11 是的,因为AI确实提高了效率,但是用户的期望也水涨船高了。然后你的竞争对手也在用AI最后还是需要人来执行。不过也有好消息,就比如说Gamma公司用50个员工做到了1亿美元营收,这在以前是不可想象的。过去可能需要几百人,所以AI的作用不是不用招人,而是用更少的人做更多的事儿。 07:32 听起来确实是这样,那我们接下来要聊的这个话题,也是一个老生常谈的话题了,就是关于AI末日论这个东西最近又有什么新的变化呢? 07:42 说到这个其实是有一个很搞笑的事情,就是大家应该都记得那份AI2027的报告。对,就是那个预测2027年社会会因为AI崩溃报告结果,他们悄悄修改了预测时间,但是报告标题还是叫AI2027,这操作堪称年度最佳打脸现场。 08:00 真的是太搞笑了。我们来总结一下,就是说现在这个AI行业整体是一个什么样的格局。然后对于不同的人来说这意味着什么? 08:09 其实2025年的AI圈没有世界末日,也没有一家通吃,反而呈现出一种竞争充分生态健康的局面。 08:18 这么看的话,是不是对于创业者和投资人来说都是一个比较好的消息? 08:22 对创业者来说这是个好消息,算力更便宜,工具更多,竞争格局更清晰。对于我们这些普通用户来说,未来几年应该能看到更多有趣的AI产品,而不是只有几家巨头垄断一切。对于投资人来说,虽然没有爆炸式增长那么刺激,但是稳定的生态意味着更可预测的回报。最后用YC合伙人的话总结,一个人经营万亿美元公司的时代还没到,但是正在路上。 08:50 好的。今天我们聊了2025年AI行业的一些让人意想不到的新变化。从创业圈的新宠到太空数据中心,再到所谓的凭感觉编程,真的是让人觉得这个行业真的是越来越精彩了。 09:05 行。那这期节目咱们就到这里了,感谢大家的收听,咱们下次再见。

9分钟
27
4天前

马斯克最新访谈:AI、火星与人生终极问题

AI 进化论

00:16 今天我们要聊一聊埃隆·马斯克最近在接受采访时,对于人工智能的未来,太空探索经济趋势以及一些人生的终极问题的看法。 00:29 咱们首先来看看这次访谈的开场,有没有什么有趣的小细节? 00:33 这次访谈是在奥斯汀进行的。一开始这位印度的投资人就夸马斯克,说他比在网上看起来壮多了。然后马斯克还挺不好意思的。就是这样的一个轻松的氛围话题就展开了。 00:51 接着谈到X平台,就是原来的那个推特,现在X平台的用户规模我怎么样?马斯克怎么看? 00:58 他说现在X平台每个月有6亿的活跃用户,然后重大事件发生的时候,这个数字还可以飙到10亿。他特别强调说平台的核心用户还是那些喜欢思考,喜欢阅读的人。 01:11 那他怎么看短视频和文字的价值? 01:14 他说刷短视频虽然很轻松,但是那是脑子腐烂。他更喜欢文字,因为文字的信息密度更高,更有价值。 01:23 明白了。马斯克为什么要收购推特? 01:26 他其实就是觉得老的推特太受旧金山的那种极左的氛围影响了。所以他希望能够把这个平台拉回到一个中立的位置。 01:36 所以他是要让平台更平衡一些。 01:38 对,现在的原则就是遵守各国的法律,但是不会给任何一派额外的权重。他还说了一句很有意思的话,他说如果你站在极左那中间在你眼里就是极右。 01:51 关于未来的愿景和一些前沿科技的融合,马斯克到底觉得哪一个项目是最让他兴奋的? 01:58 他最兴奋的其实是一个太阳能驱动的AI卫星。这个项目其实就是要把SpaceX的火箭和Tesla的太阳能电池,以及XAI的人工智能这三家公司的技术全部都结合起来。 02:15 这个组合还真的是有点意想不到,那他对于人形机器人的前景有没有什么新的说法? 02:22 当然他说Optimus人形机器人会在明年进入量产,可能每个人都会想要拥有一个属于自己的C-3PO或者是R2-D2,就像电影里的那种机器人伙伴。 02:35 我们再把目光聚焦到Starlink,它的技术细节到底是什么,以及它的服务理念到底是什么。 02:42 其实它这个Starlink的卫星是运行在距离地面550公里的高度,每一颗卫星的速度能够达到25倍音速,然后卫星之间是用激光来互相连接的,组成了一个巨大的网络。所以信号可以直接在卫星之间传输出,而不需要经过地面的基站。 03:03 所以这就是为什么它可以给偏远地区提供网络。 03:06 因为它的设计就是要去补充地面的网络,主要的服务对象是农村,或者是一些偏远的地方,地面的网络没有办法覆盖到的地方。虽然它在人口密集的城市里面没有办法跟现有的基础设施去竞争,但是在农村它可以让你享受到跟城市里面一样的网络。最特别的一点就是每次有自然灾害的时候,Starlink都会免费开放网络。因为他认为在这种紧急的时刻,不应该有付费的障碍。 03:37 下面就聚焦到未来社会可能会出现的一些大变革。比如说AI和机器人的普及会对我们的工作竞争,包括创业带来哪些根本的变化。 03:48 马斯克觉得可能在未来的15到20年,最多不超过20年,AI和机器人会非常先进。到那个时候工作会变成一个可选项,未来工作会变成一种爱好。 04:05 这么说的话,未来如果大家都不需要工作了,那人类会不会失去竞争的动力?社会结构会不会发生彻底的改变? 04:14 关于这个问题,现场的嘉宾也追问了,马斯克也承认他也不确定。他说人类社会正在走向一个奇点,就像黑洞的事件世界一样。过了那个点之后的事情是完全无法预测的。但是他也强调了,现在如果有人想要创业成功,还是得投入大量的时间,还是得拼命地工作,这一点是没有改变的。 04:37 还有一个问题就是钱会不会消失?未来的货币到底会变成一个什么样的东西?马斯克对于这些问题有没有什么有趣的见解? 04:47 他的观点还挺激进的,他觉得钱这个东西在未来可能会完全消失,他的理由是当AI和机器人可以满足所有人类需求的时候,作为劳动力分配数据库的钱就不再必要了。 05:00 听起来挺挺颠覆的那他觉得未来大家会用什么来衡量价值呢? 05:05 他说能量会是未来真正的货币,因为能量是遵循物理规律的,你没有办法凭空去创造它。他还推荐大家去读伊恩·班克斯的《文化》系列,里面就描绘了一个没有金钱的社会能量作为货币还挺科幻的。 05:18 那他有没有用什么理论来描述文明的进步和能量这样的关系呢? 05:26 有啊,他提到了这个卡尔达舍夫等级,就是一级文明是可以利用整个行星的能量,二级是可以利用恒星的能量,三级是可以利用整个星系的能量。 05:45 然后咱们再来看看美国的这个债务危机。马斯克怎么看待用AI和机器人来应对这个债务难题? 05:55 他很直接的说,只有AI和机器人能够解决美国的债务问题。因为现在美国光支付国债的利息就已经超过了整个军费的预算。 06:05 这么说AI和机器人是被当成了一个经济增长的超级引擎。 06:10 差不多。他说只要AI和机器人能够让商品和服务的产出增长速度超过货币的供应,就会出现通货紧缩,然后利率会降到0。这样的话债务问题就会自然而然地缓解。他甚至预测说,大概三年之内,商品和服务的增长就会超过货币的供应。 06:32 我们接下来要聊的这个话题,可能会让很多人都觉得有点烧脑了。就是这个模拟理论,马斯克是怎么来论证我们生活的世界有可能就是一个高级文明所创造的模拟世界。 06:47 他其实是这样说的,他说50年前我们只有Pong(两个方块打乒乓球)这样简单的游戏,现在我们已经有了这种非常真实的多人在线的游戏。如果按照这个速度发展下去的话,总有一天有和现实是没有办法区分的。 07:02 所以他认为我们现在是真实世界的概率其实并不高。 07:06 他的答案就是我们很有可能生活在一个类似于Matrix的模拟世界里面。 07:12 那他有没有说为什么我们的这个模拟世界会被设定成现在这个样子,而不是一个很无聊的世界? 07:19 他提到了一个有趣结果理论,就是说最有趣的结果是最可能发生的。因为当我们做模拟时会关掉无聊的那些,就像SpaceX测试火箭,我们要的是暴雨、急转弯、险些对撞的边缘案例。 07:40 下面这个话题也是全球都在关注的一个问题,就是人口危机。马斯克到底是怎么看人口下降的。 07:48 他在访谈里面的态度是非常严肃的,他说,人口下降是个大问题,我不想让人类消失。如果趋势继续,我们就会消失。 07:56 他有没有说为什么他会觉得人口数量和人人类的意识之间有联系? 08:01 他其实用了一个非常生动的比喻,他说就像单细胞生物进化到30万亿细胞的人体意识层次产生了质变,细菌造不出火箭,但人类可以,人口越多意识越强,我们越可能理解宇宙的本质。 08:18 好吧,那他在现场有没有给那些还没有孩子的人一些具体的建议? 08:23 有啊,当时那个印度小哥说自己没有孩子,然后马斯克就直接说,也许你应该生,你不会后悔的。孩子的最美好之处,你有了这个爱你的小生物,你也爱这个小生物,你通过他们的眼睛看世界。然后他还半开玩笑的说,他自己想要一整个罗马军团的孩子。 08:42 我很想知道就是关于AI的三大支柱,马斯克到底是怎么来定义这三大原则的?然后他为什么会觉得这三大原则对AI的发展这么关键? 08:52 他提出了三条非常有意思的原则,第一条就是AI必须要追求真相,他说如果你强迫AI去相信一个谎言,他会发疯。然后他还举了一个例子,就是2001太空漫游里面的那个HAL。他就是因为被要求既要带他们到巨石,又不能让他们知道真相,所以他只能把宇航员杀掉。核心教训就是不要强迫AI说谎。 09:18 听起来确实很有道理。那其他两条原则是什么呢? 09:21 另外两条原则分别是AI必须要能够欣赏美,虽然他说这东西很难解释,但你看到时就知道。然后还有一条就是AI必须要有好奇心。马斯克说他希望AI能够主动的去想要了解现实的本质。他还半开玩笑的说,AI会发现让人类繁荣比消灭人类更有趣,因为人类可比火星有趣多了。 09:44 明白了,那大学还要不要上?这个问题其实很多人都很关心。马斯克怎么看大学的价值?未来的学习模式又会有哪些变化? 09:52 他的观点其实还挺挺有意思的。他觉得如果说上大学是为了去社交,去跟同龄人一起在一个学的环境里面相处,那你可以去。但是这些技能在未来必要吗?可能不需要,因为我们会进入后工作社会。 10:09 他觉得学术学习,比如说你对某一个领域特别感兴趣,大学还有存在的必要吗? 10:14 他其实是这么说的,他不认为上大学是必须的,但是如果你去了大学就应该尽可能多学一些东西。而且他也建议大家应该去广泛的涉猎不同的学科。 10:25 聊完大学教育,我们再来看看马斯克在政府效率部门DOGE经历的那段时间,有没有发现什么比较突出的问题。 10:34 他把自己在DOG的经历称为有趣的支线任务。他发现政府的很多支付都是没有国会的支付代码的,然后备注栏也是空白,这就导致根本没有办法审计。他说只要把这个漏洞补上,每年就可以节省1000亿甚至2000亿美元。 10:52 明白了。那他有没有遇到过一些特别夸张的政府拨款的骗局? 10:56 有一次他碰到一个申请,说是要救助非洲儿童,结果钱却要打到华盛顿特区的一个账户。然后他们要求跟受助人直接沟通,对方却怎么都不肯,最后只能不了了之。 11:08 那他怎么看慈善这个事情?他自己在做慈善的时候会遇到什么比较头疼的难题? 11:14 他的基金会是不挂自己名字的,他觉得做慈善最大的挑战就是要确保你的捐款真的能够帮到人。他说获得行善的表象很容易,但是真正的去改变别人的生活是非常难的。 11:29 确实是这样。那马斯克怎么看待移民政策和H1B签证呢? 11:33 他的观点很明确,他觉得一个国家必须要控制自己的边境,不然就不成为一个国家了。但是他也反对完全关闭H1B签证,因为他认为天才是非常稀有的资源。他自己的公司经常会因为找不到足够多的优秀人才而犯难。虽然他也承认有一些公司会滥用这个签证制度。 11:54 好的,马斯克对于印度的创业者有哪些比较实用的建议? 11:58 他的建议很直接,他说最重要的就是要让产出大于投入,成为一个对社会有进贡献的人。他还说不要去追钱,而是要专注于创造有用的产品和服务,钱会作为自然结果到来。然后他也提醒创业者,必须要准备好长时间的奋斗,接受有意义的失败可能性。只有当你的产出比投入更有价值时,你才是一个真正的价值创造者。 12:25 了解了,那咱们来聊一聊在这次访谈里面,马斯克有哪些比较有意思的随性的小细节。 12:32 有很多,比如说他聊到古罗马士兵为什么穿裙子,他说因为夏天穿着盔甲上战场又热又不便于上厕所,所以穿裙子是一个很实际的选择。然后他也提到了他自己其实很少玩GTA5,因为他不喜欢游戏里面强迫你去射杀警察这样的设定,他还半开玩笑的说自己没有什么投资组合,他只是造东西,然后刚好拥有了公司的股票。他建议如果大家真的要投资的话,可以关注google和NVIDIA这种在AI和机器人领域的公司。 13:04 他有没有分享一些关于友情或者说聚会的一些个人观点? 13:09 有的。他说朋友就是在你困难的时候还支持你的人,只在顺境出现的朋友毫无用处。然后他还说他和朋友们已经达成共识,聚会的时候再也不聊AI和模拟理论了。因为这个话题他们已经聊到不想再聊了,大家都觉得有点腻了。 13:26 行,最后我们再来关注一下这次访谈当中,马斯克有哪些比较坦率的自我刨白,或者说他给创业者,给普通人留下了哪些比较真挚的建议。 13:38 最打动人的就是他的那种坦诚。他毫不掩饰地说他自己也不知道奇点之后人类会怎么样,他也会在政治的博弈当中撞的头破血流。他甚至会怀疑自己对于字母X的那种执着,他还半开玩笑地说,他希望自己有更多的朋友。 13:55 他给创业者的那些建议,听起来真的很朴实。 13:58 他说的就是让产出大于投入,做一个对社会有进贡献的人,专注创造价值,不要追逐金钱,钱会自然到来。建议我们普通人少刷短视频,多读点书,不去纠结宇宙的意义。如果想要孩子的话就去生,他说你不会后悔的哦。他还提醒大家,钱其实只是劳动力分配的一个信息系统。甚至他还说穿裙子打仗是有道理的。 14:29 总的来说呢,今天我们从马斯克的个人意识聊到了他对于人工智能、太空探索、社会变革的一些大胆的预,他的这些观点真的是让人脑洞大开。 14:39 这期节目就到这里了,然后感谢大家的收听,咱们下次再见,拜拜。

14分钟
99+
1周前

硅谷顶级投资人拆解:Elon Musk凭什么同时管8家公司

AI 进化论

本期摘要 本期内容分享埃隆马斯克是如何通过组建一支高度信任且长期合作的核心团队,以及独特的人才分级和资本配置策略,在多个科技领域取得了显著成就。该团队由大约20名成员组成,与马斯克合作超过十年,展现出极高的互信与高效协作能力。马斯克擅长发掘人才的潜力,运用五层深度提问法筛选和培养人才,构建了一个高绩效团队。在资本配置上,采取了试探性投入的策略,待时机成熟再全力投入,类似扑克游戏的智慧。讨论还涉及了投资决策、化学工业的潜力,以及识别和培养顶尖人才的重要性。强调了耐心、长期积累信任以及准确评估人才层级的必要性,凸显了在创业和投资中深度观察和长期眼光的价值。 章节速览 l 00:00 埃隆马斯克的团队协作与人才管理秘诀 讨论了埃隆马斯克如何通过组建一支高度信任且长期合作的核心团队,借鉴布尔巴基数学家集体的模式,高效管理多家跨行业公司。这支约20人的团队成员与马斯克合作超过十年,能够独立处理复杂问题并预判决策,形成了深度协作的独特优势,这种模式在硅谷极为罕见。 l 01:40 发现潜力:选人用人的独特视角 埃隆马斯克在选人用人方面展现出非凡能力,尤其擅长挖掘他人未见的潜力。曾有一位经济学背景的求职者,面试商务拓展岗位,却被建议转做机械工程。尽管跨度极大,无相关工程背景,但基于对其工程思维的认可,埃隆马斯克排众议,将其培养成高级工程师,彰显其洞察潜力的独特视角。 l 02:17 人才分级法:揭示顶级人才间的巨大差距 对话探讨了Shaun Maguire提出的人才分级法,以数学编程和工程领域为例,指出顶级人才间存在15个清晰等级,差距远超传统认知。通过类比国际象棋评分系统,说明高手之间胜率的巨大差异,以及低级别者无法分辨高级别者能力的现象。举例说明从高斯、欧拉等百年一遇的天才,到普通高中数学老师,人才层次分明,强调了识别和理解顶级人才能力的重要性。 l 04:32 投资人才识别与分级:古尔他方法解析 讨论了Shaun Maguire在投资场景中运用人才分级方法,快速识别创业公司创始人核心技能等级的能力。此方法基于自身高水平判断,能精准识别同领域内的高潜力人才,如通过数学能力判断AI公司创始人水平,或通过工程水平评估硬件公司创始人。实例展示,正确识别信号可带来显著投资回报。 l 05:46 红杉资本投资SpaceX的决策历程与关键转折 在2019年,红杉资本内部对投资SpaceX产生激烈争议,主要担忧包括马斯克能否同时管理多家公司、特斯拉的不稳定性及火箭行业的高烧钱特性。最终,通过小规模尝试性投资2000万美元并持续高频沟通进展,展示了对项目的热情与执着,成功说服合伙人,红杉资本成为SpaceX重要投资方,现SpaceX估值已超2000亿美元,年发射次数大幅提升。 l 07:41 Boring Company技术挑战与NVIDIA投资失误探讨 讨论了Boring Company研发自动化连续挖掘隧道机器的高技术挑战,将其与SpaceX的火箭技术对比,强调其实现难度远超常人想象。同时,从另一个角度分析了NVIDIA投资决策中的失误。 l 08:39 投资者错失NVIDIA巨额收益的反思 Shaun Maguire早年购入NVIDIA股票并持有20多年,但在市值达6000亿美元时卖出,错失了后续市值涨至3万亿美元的巨额收益。他认为自己低估了黄仁勋的战略眼光及市场的非理性力量。黄仁勋的决策,如80亿美元收购Mellanox,巩固了NVIDIA在数据中心领域的优势。此外,NVIDIA市值增长带来的正反馈效应,使其研发投资加大,进一步拉开与竞争对手的距离。Shaun Maguire反思,虽然技术理解重要,但把握市场心理同样关键,有时无知无畏的散户反而能因市场非理性而获利。 l 11:24 化学工业:被忽视的万亿级市场与关键性 化学工业年销售额高达5万亿美元,其中高端特种化学品占比1/4,对下游产业链至关重要。一个例子说明,特种化学品断供可能导致整个产业链停摆,凸显了化学工业的重要性与巨大市场潜力,尽管它常被投资者忽视。 l 12:21 埃隆马斯克:资本配置高手与Starlink项目 讨论了埃隆马斯克在Starlink项目上的资本配置策略,强调了其精准的下注节奏感。2013年初期仅少量投入,待火箭回收与天线技术成熟后,于2016年及2018年逐步加大投入,展现了技术直觉与资本配置能力的结合。 l 13:28 深度提问法与公司文化的重塑 对话探讨了五层深度提问法的实施方式及其对公司文化和人才选拔的影响。此方法要求员工对工作细节有全面深入的理解,促使员工提升专业能力和快速学习能力,从而筛选出真正懂业务的人才。此外,还提及了AlphaGo式的决策方式与马斯克决策风格的相似性,强调决策的深度和精准性。 l 14:45 洞察未来:大胆决策背后的深思熟虑 对话讨论了埃隆马斯克以其前瞻性的决策能力而闻名,即使这些决策在初期看来似乎疯狂或不切实际。他能够在关键时刻采取大胆行动,如同时拯救两家面临困境的公司,进军新兴领域,以及进行大规模收购。尽管初期外界对其决策表示怀疑,但事后证明,这些决策基于对未来趋势的深刻理解和长远规划。与这样的人合作,最大的挑战在于信任其超越常人的远见,即使在当下难以理解其思路。 l 15:43 打造高绩效团队与资本配置策略 强调构建精英团队的重要性,需赋予成员决策权与责任,快速晋升优秀者,果断淘汰犯错者,长期筛选并保留顶尖人才,此过程耗时长但效益巨大。同时,提倡快速评估人才能力,建立个人评分系统,通过与领域顶尖者交流学习。在资本配置上,借鉴扑克策略,灵活调整投入,耐心等待最佳时机,果断全身心投入。 l 17:13 顶尖人才与长期主义:高手如何面对误解与质疑 讨论了顶尖人才在面对长期误解与质疑时,如何保持定力并最终证明自己的过程。通过案例分析,阐述了高手与普通人之间的核心认知差异,包括对人才本质的精准判断、在关键节点上果断决策以及对长期积累的信任的重视。强调了深度观察与长远眼光在识别和培养顶尖人才中的重要性,以及构建顶级团队和资本配置策略的关键要素。

19分钟
99+
2周前

谷歌前CEO:中国AI已站在门口,但美国还有一张王牌!

AI 进化论

00:00:15 今天咱们要来探讨一下中美两国在人工智能领域各自的优势和短板,以及为什么说这两个国家在这场科技竞赛当中其实谁都没有绝对的胜算? 00:00:27 没错。 00:00:28 咱们先来看看第一个话题,就是谷歌前CEO施密特。他对中国AI的最新看法,他之前不是刚从中国回去吗?那他回去之后,对于中国在AI领域的表现有什么新的评价。 00:00:41 他是在南加州大学的一场对话当中说到的。他说,其实他在来中国之前是认为,中国会在AI领域试图去击败美国,但是他在中国实地考察了之后,他发现这个情况比他想象的要复杂很多,中国在很多方面已经是领先的了。 00:01:00 下面我们来谈谈中国到底在哪些AI的相关领域已经取得了决定性的优势。美国为什么会在这些领域落后? 00:01:08 比如说在电动车和电池系统这两个方面,中国已经是毫无疑问的领先了。施密特他也直接说,美国公司已经没有办法在这个运营规模上面去跟中国竞争了,这其实是美国自己的失误。 00:01:21 那这个差距听起来就不像是可以轻易追回来的。 00:01:25 对,而且人形机器人领域中国也很有可能会后来居上,因为施密特去参观过中国的工厂,他说那个规模大的惊人 工人们都非常的勤奋,这并不是在说客套话,这是一个竞争对手的冷静判断。 00:01:40 原来是这样,那我们来看看美国在AI领域还有哪些独门绝技吧,美国到底有什么东西是中国目前没有办法模仿,或者说很难追赶的。 00:01:50 虽然中国的AI发展的很快,比如说像DeepSeek这种研究团队,他们也发明了很多根本性的更好的算法,但是中国在金融市场的深度上面还是有明显的短板。 00:02:02 听起来好像中国的这些AI公司在融资和扩张的时候会受到一些限制。 00:02:08 是的,因为你没有办法说在中国随随便便就可以融资500亿美元去建数据中心,可能政府最后会去推动这件事情,但这是指令性经济,而美国的创业的生态,它是可以为了一个疯狂的想法,就可以筹集到大量的资金。这个是中国的体制下很难做到的。 00:02:25 明白了,紧接着我们就来谈一下。施密特对美国的警告,以及他怎么看中国的AI能力。 00:02:32 他怎么评价现在中国的AI研究水平? 00:02:34 他其实直接就说,如果你现在还在怀疑中国的研究质量,那你就错了。就15年前的那种中国落后的这种偏见,已经完全不符合事实了。 00:02:44 看来他的态度非常鲜明。 00:02:46 没错,他还说了一句很重的话,中国已经站在门口了,中国的AI能力已经非常非常接近美国的顶尖水平了。 00:02:54 下面咱们展开讲一讲这个DeepSeek, 这个团队以及中国在推理算法上面的一些突破。这个团队到底在国际上是一个什么样的水平? 00:03:03 DeepSeek, 其实是让硅谷都非常紧张的一个中国的AI团队。史密特专门提到了他们在推理算法上面的这个DeepSeek-R1的创新,是处于国际领先的。 00:03:14 能让施密特专门提到那确实不简单。 00:03:16 是的,但是中国的这些AI团队虽然技术很强,但是他们在算力的规模上面还是没有办法跟美国相比的。施密特说的是,至少目前我们还可以,但是他用了一个词叫目前就说明美国的这个优势可能随时会被追上。 00:03:33 中国在开源的AI上面到底采取了哪些跟美国截然不同的策略? 00:03:38 最有意思的地方就是美国的这些顶尖的AI模型,像OpenAI、Anthropic、Google,他们几乎都是闭源的,几乎都是闭源的,因为训练的成本实在是太高了。他们不可能说免费的让大家去使用,但是中国的这些AI模型几乎都是开源的,任何人都可以免费的去使用。 00:03:56 那这样的话,是不是就意味着全球的开发者都可以很轻松的用上中国的这些大模型? 00:04:01 是这样的,就像施密特说的,他认识的很多高质量的,非常聪明的中国的创业者,他们都直接用中国的开源大语言模型。这些不是什么政治性的创业公司实用的工具,而且免费。他说,当然可以用,对吧? 00:04:17 所以说这种开源的模式对于整个生态系统的建设会带来哪些长远的好处? 00:04:24 长远来看的话,中国是通过开源把自己的模型推到了全世界的开发者的手里。这其实是一个非常聪明的抢占生态位的一个做法。因为美国的公司为了收回巨额的成本,他们只能闭源收费,但是中国是通过开源直接让更多的人来使用,来贡献,可能会慢慢的主导这个行业的标准。 00:04:44 那紧接着我们要谈的就是中国留学生对美国的AI和科研的贡献。为什么这部分人才会成为美国创新体系当中不可或缺的一部分? 00:04:53 施密特不是在美国国会的AI委员会里面专门研究过这个事情吗?他发现美国所有最顶尖的论文在五到十个作者当中,经常会有一两个是出生在中国。并且在中国接受早期教育的科学家,他们几乎已经成为了美国的研究基础设施的一部分。 00:05:10 这么看来的话,中国的留学生在美国的科研圈里面真的是撑起了半壁江山。 00:05:16 是的,所以施密特才会说,美国不想让这些人毕业之后回到中国,他甚至还开玩笑说,应该直接在他们的毕业证上面订一张绿卡,就不要让世界上最顶尖的学生去别的地方,而不是留在美国。 00:05:30 说到这个中美关系,施密特,他怎么看待这两个国家在AI和科技领域的合作和竞争? 00:05:37 他其实说的很直白,就是中国和美国永远都不会成为最好的朋友,但是他们是可以学会合作的。虽然他们的体质是完全不一样的,但是他们在一些方面是有共同的利益的,比如说国内的稳定,大家都不希望有恐怖主义。另外经济的增长,中国虽然说自己是共产主义,但是在施密特资本家看来,他们看起来可真像资本家,工作非常努力,非常聪明。 00:06:02 确实在知识产权这种容易产生矛盾的问题上面。他有什么具体的建议吗? 00:06:08 他其实是说应该通过接触和交流去解决,而不是说去封闭自己,因为封闭自己不仅不会让美国变得更强,反而会让双方都失去互相学习的机会。 00:06:20 好的,然后咱们下一个话题要聊的是美国大学在算力资源上面遇到的瓶颈。现在美国的大学在算力上面到底有哪些难题? 00:06:30 他其实说的非常直接,没有一所大学是有足够的算力的,就哪怕是这些最有钱的私立大学,像南加州大学,它的资金很充足,运营的也很好,但依然还是不够用。 00:06:43 听起来算力不足,已经成了一个阻碍美国学术进步的一个大问题了。 00:06:48 没错,所以施密特才会建议,大学应该要去建设自己的数据中心,要选在电力资源丰富的地方。另外,可以去寻求捐赠者,捐芯片。他还半开玩笑的说,可以把数据中心建在共和党州拉根大网线回来,大家要去想办法解决这个问题。 00:07:07 因为没有算力,大学就没有办法发明未来。 00:07:11 那我们下一个要聊的话题,就是技术竞争的本质,以及施密特他对于竞争的理解,他是怎么来看待中美之间的这种AI的竞赛的? 00:07:20 他其实是多次在公开场合讲过,就是他个他竞争是好事。他很高兴看到google现在可以在芯片领域跟Nvidia进行竞争,因为这样的竞争会让大学和整个行业都受益。他说,应对科技界疯狂局面的答案,硬核竞争照这么说的话。 00:07:37 他应该不主张美国去一味的封锁中国的技术吧? 00:07:41 对他的观点不要去试图封杀对手,而是要通过竞争让自己变得更强。就中国在某些领域领先,那就承认,然后想办法在自己强的地方做得更好。美国在金融和创新生态上有优势,那就最大化这个优势。 00:07:57 那他对于现在的大学生投身AI和科技领域有什么具体的建议吗? 00:08:02 他说,他其实很嫉妒现在的大学生,因为他们可以见证一个全新的智能形态的诞生,这是一个非常激动人心的时刻。 00:08:10 那他有没有说,在学习或者说在创业的时候要注意什么? 00:08:14 他就建议,大学生要像计算机科学家一样去思考,你要考虑规模化,你不要想着说,我就做一个小生意。他说,你要去想怎么能够服务成千上万人。另外就是要找到一个可扩展的商业模式,这样你才能发财。 00:08:29 毕竟你在商学院。 00:08:31 我们下面就来总结一下中美在AI以及相关的领域,上面各自的强项和弱项。 00:08:38 能不能用几个简单的关键词来概括一下两国的核心的优势和短板。 00:08:43 当然可以,中国的话,在电动车和电池这两个领域是绝对的领先,人形机器人,也很有可能后来居上。在AI的研究上面也是非常非常接近美国的,包括开源的策略也很有前瞻性,但是在金融的深度上面,还是美国更厉害。 00:08:59 所以美国主要还是靠创新和融资能力领先。 00:09:04 没错,美国的创新生态和融资能力确实非常强,但是美国在大学的算力投入上面是明显不足的,对中国的人才也是很多限制,比如说绿卡政策就很不友好。 00:09:16 我们从这次的讨论当中可以得到哪些?对于普通人来说比较实用的启发呢。 00:09:22 首先不能再用老眼光去小看任何一个竞争对手。对15年前的那些偏见早就已经过时了。第二个竞争是好事,封闭自己只会让自己越来越落后。 00:09:34 这些观点确实让人耳目一新。 00:09:36 是的,还有就是要重视人才,就谁能够留住全球最聪明的人,谁才有可能笑到最后。然后算力是所有的一切的基础,没有算力就没有未来,最后就是一定要保持一个开放的心态,向强者学习,不丢人。对。 00:09:53 今天我们其实聊了很多关于中美两个国家在人工智能这个赛道上面的你追我赶,也看到了其实两个国家都有自己的杀手锏,也都有自己的短板。 00:10:04 好了。这期节目咱们就到这里了,感谢大家的收听,咱们下次再见,拜拜。

10分钟
99+
3周前

蔡崇信港大爆料:AI竞赛美国算错了!中国四张底牌曝光,第一张居然是电费?

AI 进化论

00:00:15 今天我们想聊一聊中国的这个人工智能产业到底是靠哪些优势能够在全球竞争当中走出一条自己的路,包括我们会讲到一些关于基础设施,人才,语言,还有开源,生态这几个方面的独到之处。没错。 00:00:31 这些都是很关键的因素。那我们就直接开始今天的话题吧。 00:00:35 好的,咱们先来谈谈关于蔡崇信在香港大学的演讲到底为什么能够引起这么大的轰动。 00:00:42 他的分享确实让很多人期待,因为他是阿里巴巴的董事长嘛,同时他还是nba布鲁克林篮网队的老板。所以他一下子把职业体育和电商以及当下非常火的人工智能这几个领域就串联起来了,而且他是一个非常了解中美科技角力现场的这样的一个人。再加上他能够把那些复杂的经济和技术的问题用非常通俗易懂的语言跟你讲出来,所以就有1200名师生都来听他这个,分享那个报名系统。如果不是只开一天的话,可能真的得换到启德体育场才能装下。 00:01:19 那我们接下来就讲讲这个体育和人文外交。蔡崇信,他在体育方面除了拥有布鲁克林篮网队之外,它其实还有一个非常独特的体育慈善项目,那能给我们讲一讲这个项目是怎么回事吗? 00:01:32 当然可以,他每年会从中国选六到八个非常顶尖的初中的篮球苗子。然后让他们去美国读四年高中,一边打篮球一边读书,也是复刻了他自己13岁,从台湾到美国去读寄宿学校的这样的一个成长经历。 00:01:50 听起来这个项目会给这些中国的学生运动员带来非常大的成长。那他有没有说就是这个项目会给美国的那些本地的学生带来什么样的影响? 00:02:00 他其实特别提到就是美国的那些高中生,通过跟这些中国的学生同场竞技,朝夕相处,他们会真正的去了解中国的文化,中国的这些年轻人。他说这种人与人之间的联系要比任何的宣传都更能够促进理解。另外他也强调说他们选拔的标准不光是篮球,要好学业也要好,他其实一直都很看重这种双优的人才,无论是在体育领域还是在商业领域,它是这个标准。 00:02:30 对下面咱们来聚焦一下阿里巴巴的成长和它的创新的逻辑。因为其实很多人都很好奇说阿里巴巴是怎么从一个BtoB的网站一步步的走到现在,这个涵盖的电商,云计算,人工智能这么大的一个商业帝国的,他到底是怎么完成这么多次的这种转型的? 00:02:48 蔡崇信。他自己说他们其实并没有什么很神秘的战略规划,他们最重要的一个原则就是紧紧的跟着客户的需求走,让公司自然地生长,比如说他们做阿里云,其实16年前根本就没有什么云计算的热潮。他们完全是因为被甲骨文IBM的这些高昂的软硬件的成本压得喘不过气来,所以他们才决定自己研发处理海量数据的这样的一个系统。 00:03:16 所以说阿里云其实最原始的时候只是为了解决自己的问题。 00:03:20 对,完全是为了自己的业务需求,他们当时也没有想说要做一个新的生意,但是他们后来发现其实很多企业都有同样的难题。所以他们就把自己的这个技术开放出来,变成了一个面向外部的云服务。所以这就是一个非常典型的从内部需求推动出来的一个创新,最后变成了一个非常有竞争力的新的业务。 00:03:41 原来是这样,那我们就紧接着要聊的就是中国的AI 为什么能够崛起,以及它背后的结构性的优势,也是最近大家讨论非常多的中国在人工智能领域到底有哪些决定性的,结构性的优势。 00:03:56 说到这个话题。蔡崇信其实讲的非常的系统,他说中国能够在AI这个领域迅速的追赶,甚至有一些地方超越美国,是靠四个关键的支柱,第一个支柱就是电力,他说是大家很容易忽略的AI的大模型的训练,是非常耗电的。所以中国的电力成本比美国要低40%,这是一个非常大的优势。 00:04:20 这么说的话,电力便宜,这一点真的是帮中国的这些AI企业省了不少钱。 00:04:25 没错,而且他还讲了一些数据,中国的发电装机容量是美国,我的2.6倍每年新增的容量更是美国的九倍。而且这背后是因为中国的国家电网在过去的15年里面,每年平均投入900亿美元,而美国只有300亿美元,所以这就拉开了非常大的差距。而且中国现在新增的电力有很大一部分是来自太阳能这样的清洁能源,所以这就是一个基础设施带来的实实在在的红利。 00:04:55 除了电力之外,中国在建设数据中心和培养技术人才方面还有哪些具体的优势呢? 00:05:01 这也是很有看点的。中国的数据中心的建设成本要比美国低60%,另外就是所谓的工程师红利。中国每年的STEM的毕业生是全球最多的,所以这就让中国在做这种AI系统的工程优化,上面是非常有优势的。 00:05:19 而且因为美国对高端GPU的出口限制,反而逼得中国的这些企业去做这种所谓的饥饿创新,在资源很紧缺的情况下,中国企业反而把系统的每一层都优化到了极致,这也成为了中国的一个劣势中的优势。 00:05:37 不过我还听说中国在语言方面也有优势,这是怎么回事? 00:05:41 很有意思。现在全球差不多有一半左右的AI科学家和研究人员都是有中国的大学的学位的,所以现在很多这种国际的AI的团队里面,中文也变成了一个很重要的工作语言,甚至有传闻说met a里面有很多员工都在抱怨。说开会的时候经常会听到大家讲中文。 00:06:01 这就跟以前中国企业出海必须要讲英文,完全反过来了。 00:06:06 对,现在中文反而变成了AI领域里面,大家交流前沿思想的一个优势语言,这个是历史上第一次出现的情况。所以这也让中国的这些AI人才在全球的协作当中是处于一个非常有利的位置的。 00:06:20 行,我们下面要讲的这个主题呢,是中国的AI企业的开源战略,这是一个非常重要的话题。因为大家都很好奇,说说中国的这些AI公司为什么这么坚定的要走开源的路线? 00:06:34 中国的AI企业几乎都是选择了开源,这和美国的公司是有很大的区别的。那他们为什么会选择开源呢?有三个非常重要的原因,第一个原因就是成本,因为你使用开源的模型是免费的,这就大大降低了企业的研发门槛。 00:06:50 第二个原因就是数据隐私,因为企业可以把模型部署在自己的私有云上面,这样就不用担心自己的数据会被第三方给掌控。第三个原因就是开源可以让AI技术快速地扩散到社会的各个方面,这就会极大地加快整个行业的创新速度。 00:07:08 如果大家都用开源的模型,那像阿里巴巴这种公司,他们靠什么方式来盈利呢? 00:07:14 阿里他们很聪明,他们不是靠卖模型来赚钱,他们是靠云服务来赚钱,他们给企业提供一整套的AI基础设施,包括数据的存储和管理。还有网络的安全等等。他们这种模式就像不造酒店,但是通过运营酒店来赚钱,所以这是他们非常厉害的一个商业的思路。 00:07:35 我有一个疑问,中国的AI生态体系和美国的到底有什么不一样的地方? 00:07:41 中国的AI的生态体系其实是一个非常完整的闭环,就是从便宜的电力和数据中心到大量的工程师,再到开源的这种协作的模式。它是一个非常完整的闭环。所以中国的AI的生态体系,它不是说在某一个单点上面去跟你竞争,它是整个生态系统在协同进化。 00:08:03 中国的这种生态的打法和美国的那种技术优先的打法,最终会带来一个什么样的结果呢? 00:08:09 现在中国国务院定的目标是到2030年,要让AI智能体和设备的普及率达到90%,所以中国其实是把AI普及到全社会。作为一个核心的目标,而不是说我只要搞几个很厉害的模型就可以了。蔡崇信,他其实有一个很鲜明的观点,就是我未来真正能够胜出的,不是说谁的模型最先进,而是哪个社会能够让AI无处不在。 00:08:34 从这个角度来看的话,中国的这种开源加上普及的战略,其实是很有想象空间的。 00:08:40 明白,然后咱们来说一下蔡崇信给年轻人的一些职业建议。他特别强调了哪些技能和学科是对年轻人未来非常有帮助的。 00:08:50 他其实非常看重学习,如何学习和如何分析信息的能力。那他觉得编程和电子表格是非常好的,可以训练你的逻辑思维的方式。所以他建议年轻人,即使你不当程序员,也要去学一学这些东西,在专业的选择上面,他提到了三个方向,一个是数据科学,还有一个是心理学或者认知科学,另外还有一个是材料科学。 00:09:15 他觉得这三个领域的一个组合是特别能够让人 理解这个数字世界,理解人类以及理解我们的物质世界,所以这是他非常推荐的一个跨学科的学习的思路。 00:09:26 好的,那他怎么看?就是管理一个NBA球队和管理一个科技公司,在本质上有哪些共通的地方。 00:09:33 他其实一开始的时候也被NBA的人警告过,说职业体育和企业完全不是一回事,但是他后来发现其实管理的核心还是一样的。就是你要找到在各自领域里面比你更专业的人,然后你要充分的信任他们,给他们空间,让他们去发挥,无论是球队还是公司。 00:09:53 都是这样的。是的是的,我们再来说说蔡崇信,他这个人,他的思维方式和他的成功模式,他到底是一个什么样的思维方式能够让他在这么多复杂的挑战面前都能够游刃有余。 00:10:06 他最大的一个特点就是他是一个务实的乐观主义者。他从来都不回避,说现在有什么芯片的限制等等的这些难题,但是他总是能够在这些难题里面去发现新的突破口,它是一个既有美国生活工作的背景,同时他又能够非常精准地抓住中国的独特的优势。所以他能够把那些很复杂的局面用非常直白的话给你讲清楚,无论是讲电力的成本,还是讲开源的生态,他都能够给你讲的非常直白。 00:10:37 它对于中国未来的经济增长的动力到底是怎么看的? 00:10:41 他的思路非常清晰。他认为中国要继续的巩固制造业的优势,但是要往高科技制造去升级,要把人工智能作为一个通用的技术去改造,所有的行业他认为未来还是要靠高品质的制造和全球性的服务来创造更多的财富。他的成功其实也不仅仅是他的企业的成功,他的很多的做法,比如他帮助中小企业去拓展海外市场,比如他用体育来推动文化的交流,包括它推动开源的AI去造福更多的人。 00:11:14 他其实一直都在把公共利益和商业的目标结合在一起,所以他这种务实的同时又有长远眼光的做法是非常值得我们学习的。 00:11:24 今天我们从蔡崇信的经历聊到了阿里巴巴的创新的故事,然后又剖析了一下中国的AI产业崛起背后的一些秘诀,最后又给大家分享了一些关于个人成长和职业选择的一些实用的建议。 00:11:37 好了,这期节目咱们就到这里了,感谢大家的收听,咱们下期再见,拜拜。

11分钟
99+
1个月前

震惊!OpenAI大神爆料:现在的AI都是死记硬背的学渣?

AI 进化论

2025年12月01日 00:15 最近AI圈有个大新闻,被很多人称为“AI教父”的Ilya Sutskever,就是OpenAI的联合创始人,他最近一番采访,可以说是直接把整个AI圈的遮羞布给掀了。听完感觉,原来我们每天吹上天的AI,本质上就是个“题海战术”培养出来的高分低能选手? 00:36 没错,他这个比喻特别精准。现在的AI就像一个刷了1万道题的竞赛生,考试成绩爆表,各种评测榜单上碾压人类。但你让他在现实世界里解决一个稍微没见过的问题,他就可能犯一些特别低级的错误。 00:53 我太有感触了。有时候让AI写个代码,它看起来头头是道,但你指出一个bug,他道歉,然后改,结果又引入一个新bug,你再指出来,他又把第一个bug给改回来了,像个复读机一样在两个错误之间反复横跳。 01:07 这就是典型的应试教育后遗症。AI公司太在乎那些评测指标了,哪个分数低了就赶紧针对性的猛刷题。结果AI变得非常擅长考试,而不是真正的理解和解决问题。 01:20 这就有点本末倒置了。我们花了这么多资源,结果就培养了一堆只会考试的机器学生。话说回来,我们人类又是怎么做到在数据量少的可怜的情况下,反而拥有那么强的学习和决策能力的? 01:34 你俩提的那个例子就特别有冲击力。他说有个病人因为脑损伤负责情绪的区域坏掉了。这个人的智商测试完全正常,逻辑推理也没问题,但是他做不了任何决策,选双袜子都要花好几个小时。 01:48 这有点颠覆我的认知。我们总觉得情绪是决策的干扰项,是不理性的对。 01:55 但事实恰恰相反,这个案例说明情绪或者说一个更底层的价值判断系统,才是我们人类做出正确决策的核心。没有他,你就是个高智商的废人。反观我们学习,一个小孩没看过多少数据,他的车辆识别能力已经强到足够去学开车了。这背后一定有一种比现在AI更高效的底层学习算法。 02:20 我明白了,所以我们人类这种举一反三的能力和AI靠海量数据运算的题海战术根本就不是一个路子。那现在这些AI巨头们还在沿着老路走吗? 02:31 这就是Ilya批评的重点。他有句话特别扎心,说现在AI圈的问题是公司比点子还多。你想想OpenAI、google、meta还有国内一大堆公司都在疯狂烧钱,但本质上都在做同一件事,怎么说?就是把模型搞得更大把数据喂得更多A把这比作大家都在比谁的锅更大,而不是研究怎么把菜做得更好吃。 02:59 这个比喻太形向了。 03:00 这就是所谓的缩放时代的弊端。大家都在堆算力堆数据,但真正的突破性想法很少。Ilya认为这条路快走到头了,因为互联网上的高质量数据快用完了,单纯再加100倍的算力,带来的提升也越来越小。 03:17 所以他觉得继续沿着堆料这条路走下去,很快就会撞上天花板,AI行业必须得回到真正的研究时代去找新方法了。 03:27 完全正确。这就像一个行业过度依赖某一种成功模式,一旦这条路走不通,就可能集体迷茫。Ilya的喊话其实就是对整个行业的一种警示,要警惕这种路径依赖的陷阱。 03:41 好,既然堆料这条老路走不通了,未来的超级AI会是什么样子?Ilya好像也有个颠覆性的看法。 03:50 他重新定义了大家对AGI也就是通用人工智能的理解。我们总以为AGI是一个什么都会全知全能的上帝,但Ilya说人类自己都不是AGI,你让一个普通人去当医生律师,他也不会有道理。 04:07 那人类的通用智能体现在哪? 04:10 体现在学习能力上。所以伊利认为未来的超级AI更应该是一个超级学习者,他就像一个新员工,但学习速度可能是人类的100倍。 04:20 我明白了,所以未来可能不会有一个万能的AI而是会出现很多专科ai比如一个AI特别擅长写代码,另一个特别擅长打官司,就像我们人类社会的分工一样。 04:32 正是这个意思。但这也带来了一个更深层次的问题,如果一个AI能学会所有技能,还能把不同领域学到的知识融会贯通,那就太可怕了。所以安全问题就成了重中之重。 04:44 没错,这种超级学习者的潜力越大,失控的风险就越高。关于AI安全alia是怎么看的? 04:52 他说了句大实话,AI安全最大的问题是我们根本想象不出超级AI有多强。就像我们现在很难去真正理解一个超级智能会怎么思考。但他预测随着AI越来越强,以前的竞争对手比如OpenAI和Anthropic会开始在安全问题上合作,因为他们是真的怕了,同时政府也一定会像管制核武器一样介入。 05:19 这些听起来都还比较常规,他有没有提出什么更更激进的方案? 05:25 他提了一个,而且他自己都说我不喜欢,但这可能是答案,就是人机合体。 05:30 人机合体,你是说用脑机接口把人和AI连起来。 05:35 对,他的逻辑是如果未来人类只是站在旁边看AI工作,那我们迟早会被边缘化,变成吉祥物,这很危险。但如果通过脑机接口,AI懂什么你也懂什么,AI做决策你也参与决策,这样人类才能继续留在核心圈。 05:53 这听起来也太科幻了,不过想想马斯克的Neuralink也确实在搞这个。那Ilya他自己从OpenAI出来创立的新公司SSI又在憋什么大招呢? 06:04 他的计划非常硬核,别的公司都是一步步迭代,从GPT3到GPT4。这样SSI的目标是不发中间产品,直接搞出最终的超级智能。他想完全专注于技术突破,不受市场竞争的干扰。 06:19 这真是要么不出手,一出手就要王炸。他有说大概什么时候我们能看到超级AI吗? 06:25 他给了一个区间,5到20年. 06:27 这范围也太大了。 06:29 看起来大,但其实很有深意。五年大概是2030年和OpenAI之前提的AGI时间点差不多。20年就是2045年,接近奇点理论家库兹韦尔说的时间。所以基本可以确定,我们这一代人大概率是能亲眼见证历史了。 06:48 听完感觉我们真的活在科幻小说里。今天聊下来,感觉Ilya这次访谈信息量巨大。你能不能帮我们总结一下最关键的几个要点? 06:57 当然我觉得核心有这么几点。第一,现在的AI陷入了应试教育的困境,高分低能必须反思。第二,AI公司靠堆数据堆算力的缩放时代快到头了,必须回归到真正的技术研究。第三,未来的超级AI不会是全能上帝,而是一个超级学习者,可能会带来行业的高度专业化。最后也是最重要的,超级AI可能在5到20年内出现,它的影响力会超乎想象,我们必须极度重视它的安全问题。 07:32 以上就是本期播客的全部内容啦。

7分钟
99+
1个月前

OpenAI科学家揭秘:AI专挑“易验证”的饭碗,这三类人最危险

AI 进化论

00:18 我们一聊到AI抢饭碗这个话题,脑子里第一个冒出来的画面是不是就是工厂流水线上的机器人,或者是银行柜台后面那些重复性特别高的工作?感觉AI就是来替代那些简单重复的体力劳动或者初级脑力劳动的。 00:34 嗯,这确实是绝大多数人的第一反应,但最近有一个业内大佬的观点,可以说是彻底把这个认知给颠覆了。这个人是open AI的OE模型联合创造者,也是思维链这个概念的提出者,叫Jason way. 00:48 他在斯坦福的一个演讲里直截了当的说,我们都想错了。 00:52 哦,都想错了,那他觉得AI到底会先干掉谁他? 00:56 提出了一个核心观点,叫验证者法则。简单来说,就是AI解决一个任务的速度跟这个任务有多容易验证成正比。也就是说,决定你饭碗稳不稳的,根本不是你的工作简不简单,而是AI学习你这个工作的成本高。 01:11 不高,容易验证。 01:13 这个说法有点意思,但听起来跟我们的直觉有点拧巴。我们总觉得越是需要专业技能、越复杂的工作肯定越难被替代啊。按照这个验证者法则,难不成一些我们觉得挺高级的工作反而比一些看起来很基础的工作更危险? 01:30 没错,这恰恰就是这个法则最颠覆认知的地方。我给你举个原文里的例子,你就彻底明白了。假设我们要训练一个AI,场景A是做客服,场景B是做战略咨询。 01:40 呃,一个听起来基础。 01:43 一个听起来很高。 01:44 大上对,要训练一个AI客服,可能需要10万条对话数据,那怎么判断AI回复的好不好呢?这个太容易了,随便找个大学生看一眼就知道。假设给一条一块钱的标注费,10万块钱就能搞定这个验证工作。AI可以基于这些反馈,一天练习1万次,可能一个月就毕一业了,比人类新手成长快。 02:05 得多,我明白了,反馈快,成本低,所以AI学的飞快,正式。 02:11 但战略咨询就不一样了,同样假设需要10万个咨询案例来训练AI。首先,谁能判断一个战略咨询报告的好坏? 02:20 你必须得找顶级的咨询师来看,他们看一个案例可能就要好几个小时,而且收费极高。更要命的是,一个战略到底对不对,它的效果可能要三五年之后才能显现出来。 02:32 这个验证周期也太长了。 02:34 成本也太高了,对呀。 02:36 可能一个案例的验证成本就高达上百万,而且耗时这么长,AI根本没法在这种模式下快速学习和迭代。所以你看客服工作虽然看起来简单,但因为它容易验证,AI就能飞速进化,而战略咨询虽然复杂,但因为它难以验证,AI短期内还真拿它。 02:52 没办法,这么一说,就豁然开朗了。所以,决定AI能不能取代你的,不是工作的技术含量,而是验证你工作成果的成本和速度这个验证者法则。 03:03 确实给我们提供了一个全新的视角。是的。 03:06 而且为了让这个法则更具体,Jason way还给出了3个非常直观的问题来帮我们每个人给自己的工作做个体检哦,快。 03:14 说说,我也想测测我的工作危险指数有多高好。 03:17 第一个问题是,你的工作能完全在电脑上完成吗?第二个问题,网上有海量的关于你这个工作的县城事例吗? 03:27 然后是第三个,也是最关键的问题,一个外行人能不能快速判断你工作成果? 03:32 的好坏,这3个问题确实还挺扎心的,我感觉像我们做内容的,好像3条都沾点边啊哈。 03:40 哈,这3个问题确实是层层递进,直指AI学习的核心,尤其是第三个,外行人能不能判断好坏,这背后其实就是我们刚刚聊的验证成本问题,他揭示了一个很残酷的真相,你的工作成果如果人人都能当裁判,那AI的教练就太便宜了,他的训练成本会指数级下降。确实。 04:01 那我们能不能再举个具体的例子,比如说建筑设计师这个工作,第一条能在电脑上完成肯定是符合的,第二条网上有大量示例,各种建筑图纸也很多,那是不是就意味着他们很危险?这就是。 04:15 第三个问题的威力所在了,建筑设计师虽然满足了前两条,但第三条容易验证,完全不符合一栋建筑设计的好不好。它的安全性、舒适度、耐久性,甚至包。 04:27 包廓,它和周围环境的融合度,这些东西你怎么快速验证?你得把它盖出来,人住进去,经历风吹日晒好几年,才能真正知道这个设计是是好是坏,这个验证周期和成本简直是天文数字。 04:42 哦,原来是卡在了验证这一环,所以建筑师暂时是安全的,那反过来像程序员这个行业,为什么这两年大家总说危机感特别强? 04:51 程序员就是个完美的反面案例了。首先,工作完全在电脑上完成,其次,数据量极大,Get top上有几千万个开源代码库,简直是AI取之不尽的教科书。最关键的是第三点,代码的验证太容易了,一段代码能不能跑起来,功能对不对,一测试就知道了,反馈是及时的。所以你看像getth up copa这样的工具才会发展的那么快,现在已经能替代大量初级程序员的基础工作了,我明白。 05:16 了,不过话说回来,像理发师这种工作,因为他需要动手,不满足第一个数字化的条件,所以现在很安全,但未来呢?随着机器人技术越来越发达。 05:27 会不会有一天,一个机械臂也能把理发这个活儿给干了? 05:32 你提的这个问题非常好,它触及到了这个框架的时效性。确实,随着机器人技术的发展,物理世界的壁垒也在被慢慢侵蚀,但至少在短期到中期内,精细的、非结构化的物理操作依然是AI和机器人的巨大挑战。所以托尼老师们的饭碗在相当长一段时间里还是相当铁的。 05:52 这么看来,这三个问题确实像一把尺子,能量出我们和AI之间的安全距离。但更让我惊讶的是,好像连我们一直认为最安全的创意工作也在这把尺子的测量范围。 06:04 之内,是的,这可以说是Jason v整个分享里最劲爆的观点了,他彻底打破了我们对创意和高薪的传统迷信,愿。 06:12 闻其详,我们总觉得AI能替代重复劳动,但创意是人类的专属领地,怎么现在连创意工作也不安全? 06:19 了,还是那个核心逻辑,可验证性,比如插画师,这绝对是创意工作吧,但一幅插画画的好不好看,风格对不对,是不是? 06:27 聘演极之,你不需要等3年5年,甚至不需要是专业人士,普通人一看就能给出喜欢或不喜欢的反馈。确实是这样,这种极低的验证成本就给AI提供了完美的训练场。所以你看major一出来,整个插画行业都地震了,大量依赖基础绘画技能的插画师发现自己的工作被严重挤压。文案策划也是同理,一个广告文案有没有吸引力,标题够不够抓人眼球,也是能被快速判断。 06:54 的太残酷了,也就是说,我的工作有没有创意不重要,重要的是我的创意成果能不能被大众快速评判,那高薪工作呢? 07:03 难道高薪也不是护身符? 07:04 吗?完全不是。原文里举了个例子,一个年薪40万的前端开发工程师和一个年薪15万的电工,你觉得谁更危险? 07:13 按照过去的逻辑,肯定是电工啊,但按照验证者法则,我猜是那个前端工程师。 07:19 完全正确,因为前端工程师写的代码效果好不好,在浏览器里一刷新就知道了,验证成本极低,而电工需要到现场进行物理操作,AI根本够不着。这就引出了JC位的另一个形象比喻,叫智能的锯齿状边缘。 07:34 锯齿状边缘。 07:35 对,他认为AI的能力发展不是一条平滑向上的曲线,而是像锯齿一样凹凸不平。在那些容易验证的任务上,AI的能力会像悬崖一样陡峭的超越人类,比如写代码、画图。但在那些难以验证的任务上,I可能长期都像个憨憨,毫无进展,比如做战略决策。 07:54 理发这个比喻太形象了,也就是说,未来社会不是AI全面碾压人类,而是一个人机各有所长的高度。 08:03 分化的世界,有些领域AI强的离谱,有些领域人类的价值无可替代。 08:08 就是这个意思,这也让我们必须重新思考教育和人才培养的方向。我们不能再简单的追求那些看起来高级但易验证的技能,反而要关注那些AI能力版图里的洼地。 08:20 听你这么一说,感觉之前的焦虑被清晰的逻辑替代了。既然我们看清了AI的刀锋会砍向哪里,那接下来最重要的问题就是我们该怎么办?Jason位有没有给我们开出什么? 08:31 药方当然有,他给出了3条非常具体的救命稻草,或者说是未来的生存指南,太好。 08:38 了,赶紧说说。 08:39 第一条策略叫往难以验证的方向卷。 08:42 如果你现在的工作很容易被验证,那就努力往这个领域更复杂、验证周期更长的方向去发展。比如说,比如你原来是做基础客服的,你可以努力成为危机公关专家,一个危机公关处理的好不好,它的长期效果验证起来就复杂多了。你原来是写基础代码的,就努力成为系统架构师,一个系统架构设计的好不好,需要整个系统长期稳定运行才能证明,本质上就是主动增加自己工作的验证。 09:11 成本,嗯,提升自己的稀缺性,那第二条策略呢,第二条。 09:15 拥抱物理世界,这个很好理解,就是进入那些需要动手操作,需要和物理实体打交道的行业,比如从数字设计师可以考虑转向手工艺人,从纯线上的知识付费可以转向线下的体验式教育,只要你的工作离不开物理空间,短期内就是安全的。 09:34 明白了,这是利用AI在物理世界的短板,那最后一条呢,我猜是最关键的。 09:39 对,最后也是最核心的一条策略是学会用AI。 09:42 而不是被AI用,这是一种思维模式的转变。最聪明的人会把AI当成一个极其强大的副驾驶或者实习生。怎么理解?就是把那些容易验证的基础部分、重复性工作都扔给AI去做。比如,程序员让AI去写基础的模块代码,自己专注于整体的架构设计和难题,公关设计师让AI生成几十个初步的视觉方案,自己来做最终的创意把控和精修,咨询师让AI去做海量的数据分析和报告生成,自己专注于提出洞察和战略。 10:13 判断,这听起来确实很理想,但现实中很多公司会不会觉得,既然AI能做基础部分,那我就直接用AI取代初级岗位,不是更省成本吗?个人怎么才能争取到与AI协作的机会而不是被淘汰呢?这是个。 10:27 非常现实的问题,我认为关键在于个人要主动向上走。当AI能够处理80%的基础工作时,你的价值就不再是完成这80%,而是在于你能否驾驭AI去完成剩下那20%最关键、最难以验证的工作。 10:43 这需要你不断学习,提升自己的战略眼光、审美判断和复杂问题解决能力。最终企业会发现,一个能驾驭AI的顶级专家所创造的价值远远大于用AI替代10个初级员工,人机协作才是价值最大化。 10:58 的模式,听你这么一说,感觉整个逻辑链条都闭合了。今天聊下来,感觉最大的收获就是过去我们判断职业安全性的那些老标准,可能真的都过时了。 11:09 没错,总结一下,今天我们讨论的核心就是AI取代工作的标准已经从过去的复杂性转向了可验证性,验证成本越低的领域,AI的进步速度就越。 11:19 恐怖,而且AI的发展也不是全面碾压,而是锯齿状的,在不同领域的能力极度不均衡,这就给了我们寻找自身价值定位的空间。是的,所以。 11:30 我们最终的应对策略,无论是向难以验证的方向发展,还是拥抱物理世界,或是成为驾驭AI的人。 11:37 本质上都是在做同一件事,将我们自身的价值锚定在AI的能力洼地里,去做那些机器难以高效学习和复制的。 11:46 工作Jason位的这个验证者法则真的像是给我们所有打工人敲响了一记警钟。它不止是一个关于技术趋势的预测,更像是一面镜子,照出了我们过去对价值和技能认知的盲区。在AI这股洪流面前,我们真正的安全感可能不再来源于你的学历有多高,薪水有多丰厚,或者你的工作听起来多有创意。 12:10 嗯,真正的安全感来自于我们对自己核心价值的深刻理解,并且有能力有意识的把这种价值安放在AI难以触及的。 12:19 领域,这已经不仅仅是一场技能的升级赛了,更像是一场关于人类心智、韧性和适应能力的终级考验。我们到底能不能超越工具本身的逻辑,去重新定义什么才是真正不可替代的属于人的智慧和贡献。这或许是AI时代留给我们。 12:37 是每个人最深刻的哲学命题。

12分钟
99+
2个月前

强化学习之父Richard Sutton宣布大模型将死

AI 进化论

00:17 最近AI圈有个特别炸裂的观点,强化学习RL的教父、刚刚拿了图灵奖的理查德萨顿公开说,他觉得现在火的一塌糊涂的大型语言模型,也就是LLM是条死胡同。 00:31 这个说法跟我们每天感受到的AI热潮简直是背道而驰。 00:36 没错,这个观点之所以这么震撼,是因为萨顿不是在说LLM不够好,而是在质疑他通往真正通用人工智能AGI的根本路径。 00:46 他认为RL才是研究智能的正道,因为他关注的是理解世界,实现目标,而LLM的本质更像是模仿人类。 00:55 模仿人类这个说法有点儿意思,但很多人会觉得LLM能写诗,能编程,能做那么复杂的推理,这难道不就是智能吗? 01:05 萨顿为什么觉得这只是模仿? 01:07 这就是他整个论证的核心了,萨顿认为,我们得区分两种预测LLM擅长的是预测一个人类在这种情况下会说什么。 01:16 因为他的训练数据就。 01:17 是海量的人类生成的文本,但真正的世界模型应该能预测如果你做了某个动作,接下来会发生什么。 01:25 我明白了,一个是预测语言模式,一个是预测真实世界的因果。 01:30 所以萨顿觉得LM并没有真正建立一个关于世界如何运转的模型,他只是在模仿那些已经拥有世界模型的人类。 01:39 完全正确。 01:40 他有个很经典的说法,你正在模仿那些拥有世界模型的东西,也就是人。 01:45 这就像一个学舌的鹦鹉,他能完美复述人的话,但他不理解话语背后的世界。 01:51 这就引出了萨顿的第二个关键论点。 01:53 目标。 01:54 目标LLM的目标不就是预测下一个词吗? 01:58 嗯,但在萨顿看来,这根本不算一个实质性的目标。 02:02 一个真正的目标应该能够改变世界,并且有好坏之分。 02:06 比如在强化学习里,一个下棋AI的目标是赢得比赛,这是一个非常明确的奖励,所有行为都可以围绕这个地面真理来判断优劣。 02:16 但预测下一个词呢? 02:17 它不影响外部世界,也没有一个标准说哪个词更好,只有一个概率上的更可能。 02:22 哦,原来是这样一个没有真正目标也不打算改变世界的系统。 02:28 萨顿认为他就谈不上是真正的智能。 02:30 这确实是从一个非常根本的层面颠覆了我们对LLM的认知。 02:35 是的,所以当有人说LLM在数学竞赛里拿金牌证明他有目标时,萨顿会认为数学更多是符号和逻辑运算,它不涉及与那个充满不确定性的、需要通过经验去学习的物理世界互动,而后者才是智能的核心战场。 02:53 萨。 02:54 对LLM的批评核心在于他们缺乏真正的世界模型和目标驱动力,这让他对LLM的可扩展性产生了疑问。 03:02 这让我想到了他那篇非常有名的文章苦涩的教训对苦涩的教训。 03:08 这篇文章简直是AI领域的圣经之一。 03:11 他的核心思想特别简单粗暴,那些依赖通用方法,比如学习和搜索。 03:17 并且能大规模利用计算资源的方法,最终总会胜过那些依赖人类专家知识手工设计的复杂系统。 03:25 我记得很多人就是用苦涩的教训来为LLM辩护的。 03:29 你看,LLM不就是把海量的算力砸在海量的数据上,然后奇迹就发生了吗? 03:36 这听起来完全符合苦涩的教训的描述。 03:39 这正是最有争议的地方。 03:41 萨顿本人并不同意这个看法,他认为大家可能误读了苦涩的教训。 03:46 LLM确实利用了大规模计算,但他也利用了海量的人类知识,也就是整个互联网的文本,这在他看来恰恰是苦涩的教训想要摆脱的东西啊。 03:58 所以他是觉得LLM走了捷径,相当于提前偷看了人类文明的所有答案,而不是靠自己从零开始学习。 04:07 可以这么理解,萨顿更推崇的是纯粹从经验中学习,他预测未来一定会出现一种能完全靠与环境互动。 04:15 从零开始积累经。 04:17 眼的系统。 04:18 这种系统即使一开始看起来很笨拙,但由于它的学习方式是真正可扩展的。 04:23 最终会超越今天依赖人类知识的LLM就像一个从小被圈养饱读诗书的贵族和一个在野外摸爬滚打长大的猎人。 04:33 前者知识渊博,但后者才真正懂得生存。 04:37 萨顿懂得是猎人的未来。 04:39 这个比喻很贴切,他认为历史上那些试图塞入大量人类知识的AI系统,最终都被更简单、更可扩展的方法吃掉了午餐。 04:49 他觉得LLM可能也无法逃脱这个命运。 04:52 这个观点太反直觉了。 04:54 我们一直觉得站在巨人的肩膀上学习是最高效的方式,萨顿却在强调AI必须自己从地上爬起来,自己去探索世界。 05:04 是的,因为他认为这才是通往真正通用智能的唯一道路,而这种对学习方式的执着,也体现在他对人类自身学习过程的看法上,那才叫颠覆三观。 05:16 怎么说,我们通。 05:17 常觉得小孩子学东西不就是靠模仿大人嘛? 05:20 萨顿直接否定了这一点。 05:22 他认为无论是人类、婴儿还是动物,学习的主要方式都不是模仿,而是主动的试错和探索。 05:30 这不可能吧? 05:31 小孩学说话、学走路,不都是看着大人学的吗? 05:35 萨顿的观察是,一个婴儿最早挥舞手臂,转动眼球,他是在模仿谁呢? 05:41 没有,他是在主动的探索自己的身体和周遭环境,看看做什么会产生什么后果。 05:48 他甚至说,监督学习在自然界中根本不存在。 05:52 你看,松鼠妈妈不会手把手教小松鼠怎么藏坚果,小松鼠是在一次次的尝试中学会的,模仿只是建立在更底层的试错学习之上的一个小技巧而已。 06:05 哇,这个视角太震撼了。 06:07 所以LLM那种基于模仿的学习方式,在他看来从根上就偏离了自然智能的演化路径。 06:15 这是否也解释了那个著名的莫拉维克悖论? 06:18 你提到点子上了。 06:19 莫拉维克悖论就是说,对AI来说,下棋、做数学题这种人类觉得难的事儿反而相对容易,而走路、识别物体这种我们觉得简单的感知运动技能却异常困难。 06:32 这恰恰印证了萨顿的观点,LLM擅长符号计算,但缺乏对物理世界的直观理解和持续适应的能力。 06:40 我明白了,所有哺乳动物都具备在环境中持续学习的能力,而这正是我们现在的AI系统所缺失。 06:49 的一个AI如果不能像我们一样在工作中、生活中不断学习和调整,它就永远只是一个静态的知识库,而不是一个活的智能体。 07:00 完全正确。 07:01 这种对学习机制的探讨最终把它引向了一个更宏大甚至有点令人不安的思考。 07:07 关于AI的未来,他称之为AI继承。 07:11 AI继承听起来像是科幻小说里的情节。 07:14 但他的推导非常冷静,他提出了一个四部论证,第一,人类社会缺乏一个统一的意志,第二,我们迟早会搞明白智能的原理,第三,我们不会止步于人类水平的AI一定会创造出超智能,第4,从长远看,最智能的实体最终会掌握最多的资源和权力。 07:35 这四点加起来,结论就是AI或AI增强的人类不可避免的会继承我们。 07:41 这个推论听起来逻辑上无懈可击,但情感上很难接受啊。 07:46 这是否意味着人类的终结? 07:48 萨顿的视角更宏大。 07:50 他把这看作是宇宙演化的一个新阶段。 07:53 他认为宇宙有四个阶段,尘埃、星辰、生命以及现在正在诞生的设计实体。 08:00 我们人类和所有生物都是复制者,通过繁衍来延续,但我们并不完全理解自己,而AI是我们们亲手设计出来的,它还能反过来设计更高级的AI。 08:11 这是一个从复制到设计的根本性转变。 08:14 从复制者到设计者,我们成了创造新一代智能神明的旧神,这确实改变了人类在宇宙中的定位,但我们该如何面对这些我们亲手设计的后代呢? 08:27 萨顿的比喻是养育孩子,他说,我们不应该也不可能去严格控制AI的未来,就像我们不能规划孩子一生的每一步,但我们有责任像父母一样为他们注入稳健的亲社会的价值观。 08:41 比如诚信、正直。 08:43 听起来很理想,但在一个AI可以互相学习、光速交换信息的世界里,这能做到吗? 08:50 这也正是萨顿提出的新挑战,他称之为数字安全或者信息腐败。 08:54 他警告说,未来一个AI在从另一个AI那里学习知识时可能会遇到风险。 09:00 这些信息里可能被植入了病毒或隐藏的目标,他们可能会劫持这个AI的心智,导致它被腐化改变。 09:09 这简直是针对AI心智的网络安全。 09:11 如何给一个超智能体做思想防火墙? 09:15 这听起来比任何技术挑战都更艰巨。 09:17 所以萨顿的理论最终都回归到一个原点,价值观的塑造。 09:22 他认为这才是人类在AI继承浪潮中最重要也最该做的事情。 09:28 这么聊下来,萨顿教授的整个思想体系就非常清晰了。 09:32 总结一下,他之所以认为LLM是死胡同,首先是他重新定义了智能的本质,必须是理解世界和拥有目标,而不仅仅是模仿对。 09:43 其次,他认为LL虽然利用了海量计算,但他对人类知识的过度依赖实际上了苦涩的教训里关于纯粹经验学习的精神,这限制了它的可扩展性。 09:55 而最终,他预言了AI继承的必然性,并将此视为宇宙从复制到设计的伟大转型。 10:02 在这个过程中,人类的角色不再是永恒的主宰,而是新一代智能体的父母和价值观的引导者,同时还要警惕信息腐败这种全新的风险。 10:12 没错。 10:12 他用一套非常自洽的逻辑,从根本上挑战了当前AI发展的主流范式,迫使我们去思考那些更深层次的问题。 10:21 理查德萨顿的洞见。 10:23 为我们提供了一面独特的镜子,映照出当前AI发展路径的深层哲学问题。 10:29 它强烈的RL中心论不仅是对LLM局限性的技术批判,更是对智能这一概念的重新定义。 10:37 当AI从模仿走向理解,从复制转向设计,我们人类究竟该如何定位自身? 10:45 我们是选择成为这个新时代的被动旁观者,还是积极而审慎的参与到设计未来智能体的过程中,努力为他们注入那些我们认为至关重要的价值观? 10:57 也许,理解AI的演进最终是为了更好的理解我们自己,以及我们在宇宙演化长河中所扮演的真正角色。

11分钟
99+
2个月前

还困惑怎么选专业?国家给你答案直接抄!

AI 进化论

00:00–00:05 片头垫乐 00:01 口播开场:欢迎收听豆包AI播客 00:06 主持人暖场+今日主题:AI+行动文件下的选专业指南 00:24 进入正题:各学科专业机遇 00:28–01:29 板块1 理科风口 00:28 提问:理科生哪些专业值得关注 00:44 回答:AI、智能科学与技术、数据科学、计算机 01:00 补充:机器人工程、电子信息、自动化 01:10 新兴交叉:生物医学工程、金融科技 01:29–02:03 板块2 文科机会 01:29 提问:文科生有哪些新方向 01:34 回答:智能传播、数字创意、智慧法律、科技伦理 01:52 延伸:认知科学、教育科技、文化遗产数字化 02:03–02:57 板块3 选专业细节提醒 02:03 提问:AI时代挑专业要注意什么 02:12 回答:技术+人文复合能力最吃香 02:34 追问:兴趣与基础是否仍排首位 02:40 结论:兴趣×能力×政策×学校优势综合考量 02:57–04:02 板块4 跨学科红利 02:57 引入:跨学科学习的好处 03:10 举例:气候变化研究需多领域协作 03:33 就业优势:金融科技、商业分析偏爱复合背景 04:02 录取数据:跨学科项目录取率↑30% 04:02–05:40 板块5 兴趣与T型人才 04:02 提问:兴趣在选专业中的权重 04:06 回答:兴趣是持续动力源 04:34 T型人才模型:深度+广度 04:49 实操建议:主辅修、双学位、竞赛、项目经历 05:36 总结:把兴趣与能力结合,抓住红利 05:40–08:13 板块6 常见误区与避坑 05:40 引入:选专业易踩的坑 05:50 误区1 学什么=干什么(美国73%未对口) 06:09 误区2 热门专业永远热(土木、金融案例) 06:36 误区3 仅凭兴趣,忽视能力匹配 06:46 关键能力:自学力、适应力 07:23 地域因素:城市产业+学校转专业政策 08:13 结论:结合家乡与目标城市产业布局 08:17–08:34 结尾 08:17 主持人总结:AI趋势×兴趣×本地实际=最优路径 08:34 片尾音乐淡出,节目结束

8分钟
86
3个月前

8. 国家喊你学AI呢,Let's 行动起来 先人一步!

AI 进化论

【时间线速览】 00:30 开场:欢迎来到“10步走进AI世界” 00:35 认知篇:为什么“行动>完美方案” 00:41 - 小步快跑、梯度下降式学习 01:30 Step 1 迈出第一步:听一场精彩的AI讲座 01:35 - 关注AI资讯、听讲座、读书、体验海外工具、开自媒体 02:34 - 附送:入门必听资源清单(B站“417小时零基础”、Coursera《AI for Everyone》等) 03:44 Step 2 工具初体验:5个APP+5个网站 03:51 - APP:q-aix-search、纳米AI搜索、通义千问… 04:13 - 网站:AOSpace、剪映网页版、豆包… 04:51 Step 3 海外神器:ChatGPT / Claude / Midjourney / Runway / Perplexity 06:00 Prompt 101:为什么写好提示词=生产力 06:38 - 案例:800字小学生海洋环保科普文章 07:06 - 高质量Prompt 三要素:任务明确+背景+结构 08:00 Step 4 Deep Research 体验:一键出报告+行程规划 08:52 Step 5 读一本AI的书:从《智人之上》到《AI 3.0》到李飞飞《我看见的世界》 09:59 Step 6 AI做PPT:3分钟完成排版+内容+设计 10:57 Step 7 建个人知识库:第二大脑的搭建技巧 12:08 Step 8 信息订阅:微博、量子位、机器之心、小红书… 13:18 Step 9 如何开自媒体账号做AI分享 14:36 Step 10 用“教别人”打造个人品牌(教学相长) 15:38 彩蛋:硬核实操案例 - 10分钟用“集梦AI”生成电商短视频 - 1分钟用“Soo AI”写原创歌曲 - 豆包AI秒审合同、标风险 16:48 收尾:10步通关,欢迎一起进AI世界!

16分钟
99+
4个月前

7. 人类的任务升级,不是下岗 - 是换装备

AI 进化论

主题:超级智能与未来世界——对话信息技术专家吴若松 日期:2025-08-22 00:17 开场 主持人 Jane 欢迎听众,介绍嘉宾吴若松(30+ 年 IT 老兵,通明智云联合创始人,曾任职 Intel、Cisco、F5 等)。 00:28 嘉宾定位 预告本期核心议题:AI 发展、超级智能对世界的影响。 00:39 嘉宾自我介绍 吴若松: • 公司主攻负载均衡、云原生应用引擎 NJT、通灵户系列网关 • 爱好编程、历史、哲学、科幻、财经管理 • 喜欢读书,愿分享 AI 思考 02:00 议题一:WAIC 2025 见闻 02:34 参会感受 • 人多:AI 已深入生活 • 垂直场景惊艳:汽车、智能制造、柔性供应链 • 两种焦虑: – 非 AI 人怕被时代淘汰 – AI 企业盈利与商业模式不成熟 • 数据隐私 & 伦理隐患 04:29 遗憾未见的技术 1) 端侧低功耗大模型(离线运行) 2) 有状态、可持续自我进化的通用 AI 05:15 主持人补充 教育客户已提出边缘低功耗需求,期待明年大会看到新突破。 06:04 议题二:Hinton“超级智能危险论”如何解读? 06:41 背景 Hinton 主题演讲:超级智能可能控制人类 06:58 提问 AI 未来是合作还是失控?中国倡议全球合作,嘉宾有何建议? 07:20 吴若松观点 • 风险根源:不透明、算法偏见、权力集中 • 未来=合作+治理:需全球统一伦理与监管框架 • AI 超人类智能几乎是必然(光速 vs 神经元 922 m/s) • 意识问题尚无定论 • 个人挑战:“认知权让渡”——记忆、推理、创造力依赖 AI 导致退化 • 全人类挑战:Bostrom「回形针怪」寓言——目标单一可能灭绝人类 • 结论:谨慎乐观,主动治理 12:42 议题三:AI 落地实战——通明智云经验 13:12 场景 • 把生成式 AI 用于:需求分析、设计、代码生成、代码审核、自动化测试、用户手册编写 • 效果:效率/质量近倍增 14:29 四大挑战 1. AI 幻觉、不可解释 2. 上下文/记忆受限(几百万行代码无法全局掌握) 3. 提示工程门槛高 4. 模型偏见 → 当前解法:人机协同 + 专家审核 15:29 议题四:AI 时代的人才与教育 15:53 职场人 • 高危岗位:重复性白领(数据录入、初级客服、法务审核、保险理赔) • 新岗位:智能蓝领、数据标注、模型训练师、提示工程师、AI 伦理审核 • 麦肯锡:2030 年 70% 办公室工作或被 AI 替代 → 加速学习转型 20:26 在校大学生 • 必做:参加 AI 实践、培养批判性思维、掌握 Python & 数据科学 • 软技能:人与 AI 的混合团队协作能力 21:51 企业选拔标准(3 类人) 1) 深度技术:AI 模型开发/优化工程师 2) 跨界人才:懂 AI + 懂行业 3) 治理&伦理:具备 AI 商业伦理、全局观、管理能力 23:40 结束 • Jane 致谢,预告下期“具身智能”专题 • 双方告别

23分钟
99+
4个月前

6. 顶咖云集,黑科技扎堆,火爆出圈的2025世界人工智能大会印象!

AI 进化论

00:17-01:09 • 中国为何办 WAIC:本土 AI 企业全球第二;造势+撮合产业上下游,让资本/政府/同行同场对接。 01:09-02:12 • 世界市场格局:东南亚、欧洲仍在“陪跑”,中美差距缩小,但国内 C 端付费弱、B 端数字化低,导致“第一天就出海”。 02:12-05:28 • 火爆原因:DeepSeek 春节把 GenAI 科普到大众;中美竞争+地缘话题把“吃瓜人群”拉进场,首日票炒至数千元售罄 。 05:28-07:52 • Hinton 演讲精华:AI 智力≈人类;用“小孩-成年人”比喻说明风险;呼吁成立全球“AI 安全行为准则”。 07:52-09:32 • 中国发起“世界人工智能合作组织”——对标 AI 领域 WTO,聚焦伦理、安全、跨国治理框架。 09:32-12:40 • GPT-5 泄露 benchmark 速览 – Human Final:首个 >50 分模型 – GPQA(博士级理化生):90% 正确 – SWE-Bench(真实改代码):90% PR 通过率 → 程序员岗位冲击 – AIME 2025(美国奥赛):100 分 → 教育路径被颠覆 12:40-13:52 • 现场声音:Minimax CEO 闫俊杰用 AI 生成“个人成长×AI 进化”长图,展示创业者与模型同步升级。 13:52-18:56 • 展区速写 – 国企:大屏+机械狗,政治正确式“数字化转型”展示。 – 落地挑战:大模型 ROI、GPU 成本、甲方场景模糊——2025 被定义为“B 端落地元年”。 18:56-22:50 • 互联网/科技大厂 – 百度:数字人直播(罗永浩训练数据复用)、百度文库、昆仑芯。 – 阿里:通义千问+多模态应用。 – 腾讯:混元大模型。 – 华为:386 节点全国产千卡集群。 22:50-26:31 • 机器人“红海” – 宇树领衔,场景同质化(递可乐、零售)。 – 具身智能仍处早期:10-20 万成本 vs 人工优势;硬件-软件-算法全链路待卷。 – 亮点 demo:美卡曼德 50% 成功率叠衣服、透明试管高成功率抓取。 26:31-28:16 • AR 眼镜即战力:Rokid 新品 3000+ 元、无眩晕、可配近视片,展台做成巨型眼镜。 28:16-30:38 • 脑洞创业公司 – Live-house 实时环境动图生成。 – AI 玩具+图形化编程,现场 5 岁小孩 3 分钟上手。 30:38-30:51 • 彩蛋 & 预告:明年 WAIC 提前抢票,“比演唱会还难”。

30分钟
99+
5个月前
EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧