2025年12月01日 00:15 最近AI圈有个大新闻,被很多人称为“AI教父”的Ilya Sutskever,就是OpenAI的联合创始人,他最近一番采访,可以说是直接把整个AI圈的遮羞布给掀了。听完感觉,原来我们每天吹上天的AI,本质上就是个“题海战术”培养出来的高分低能选手? 00:36 没错,他这个比喻特别精准。现在的AI就像一个刷了1万道题的竞赛生,考试成绩爆表,各种评测榜单上碾压人类。但你让他在现实世界里解决一个稍微没见过的问题,他就可能犯一些特别低级的错误。 00:53 我太有感触了。有时候让AI写个代码,它看起来头头是道,但你指出一个bug,他道歉,然后改,结果又引入一个新bug,你再指出来,他又把第一个bug给改回来了,像个复读机一样在两个错误之间反复横跳。 01:07 这就是典型的应试教育后遗症。AI公司太在乎那些评测指标了,哪个分数低了就赶紧针对性的猛刷题。结果AI变得非常擅长考试,而不是真正的理解和解决问题。 01:20 这就有点本末倒置了。我们花了这么多资源,结果就培养了一堆只会考试的机器学生。话说回来,我们人类又是怎么做到在数据量少的可怜的情况下,反而拥有那么强的学习和决策能力的? 01:34 你俩提的那个例子就特别有冲击力。他说有个病人因为脑损伤负责情绪的区域坏掉了。这个人的智商测试完全正常,逻辑推理也没问题,但是他做不了任何决策,选双袜子都要花好几个小时。 01:48 这有点颠覆我的认知。我们总觉得情绪是决策的干扰项,是不理性的对。 01:55 但事实恰恰相反,这个案例说明情绪或者说一个更底层的价值判断系统,才是我们人类做出正确决策的核心。没有他,你就是个高智商的废人。反观我们学习,一个小孩没看过多少数据,他的车辆识别能力已经强到足够去学开车了。这背后一定有一种比现在AI更高效的底层学习算法。 02:20 我明白了,所以我们人类这种举一反三的能力和AI靠海量数据运算的题海战术根本就不是一个路子。那现在这些AI巨头们还在沿着老路走吗? 02:31 这就是Ilya批评的重点。他有句话特别扎心,说现在AI圈的问题是公司比点子还多。你想想OpenAI、google、meta还有国内一大堆公司都在疯狂烧钱,但本质上都在做同一件事,怎么说?就是把模型搞得更大把数据喂得更多A把这比作大家都在比谁的锅更大,而不是研究怎么把菜做得更好吃。 02:59 这个比喻太形向了。 03:00 这就是所谓的缩放时代的弊端。大家都在堆算力堆数据,但真正的突破性想法很少。Ilya认为这条路快走到头了,因为互联网上的高质量数据快用完了,单纯再加100倍的算力,带来的提升也越来越小。 03:17 所以他觉得继续沿着堆料这条路走下去,很快就会撞上天花板,AI行业必须得回到真正的研究时代去找新方法了。 03:27 完全正确。这就像一个行业过度依赖某一种成功模式,一旦这条路走不通,就可能集体迷茫。Ilya的喊话其实就是对整个行业的一种警示,要警惕这种路径依赖的陷阱。 03:41 好,既然堆料这条老路走不通了,未来的超级AI会是什么样子?Ilya好像也有个颠覆性的看法。 03:50 他重新定义了大家对AGI也就是通用人工智能的理解。我们总以为AGI是一个什么都会全知全能的上帝,但Ilya说人类自己都不是AGI,你让一个普通人去当医生律师,他也不会有道理。 04:07 那人类的通用智能体现在哪? 04:10 体现在学习能力上。所以伊利认为未来的超级AI更应该是一个超级学习者,他就像一个新员工,但学习速度可能是人类的100倍。 04:20 我明白了,所以未来可能不会有一个万能的AI而是会出现很多专科ai比如一个AI特别擅长写代码,另一个特别擅长打官司,就像我们人类社会的分工一样。 04:32 正是这个意思。但这也带来了一个更深层次的问题,如果一个AI能学会所有技能,还能把不同领域学到的知识融会贯通,那就太可怕了。所以安全问题就成了重中之重。 04:44 没错,这种超级学习者的潜力越大,失控的风险就越高。关于AI安全alia是怎么看的? 04:52 他说了句大实话,AI安全最大的问题是我们根本想象不出超级AI有多强。就像我们现在很难去真正理解一个超级智能会怎么思考。但他预测随着AI越来越强,以前的竞争对手比如OpenAI和Anthropic会开始在安全问题上合作,因为他们是真的怕了,同时政府也一定会像管制核武器一样介入。 05:19 这些听起来都还比较常规,他有没有提出什么更更激进的方案? 05:25 他提了一个,而且他自己都说我不喜欢,但这可能是答案,就是人机合体。 05:30 人机合体,你是说用脑机接口把人和AI连起来。 05:35 对,他的逻辑是如果未来人类只是站在旁边看AI工作,那我们迟早会被边缘化,变成吉祥物,这很危险。但如果通过脑机接口,AI懂什么你也懂什么,AI做决策你也参与决策,这样人类才能继续留在核心圈。 05:53 这听起来也太科幻了,不过想想马斯克的Neuralink也确实在搞这个。那Ilya他自己从OpenAI出来创立的新公司SSI又在憋什么大招呢? 06:04 他的计划非常硬核,别的公司都是一步步迭代,从GPT3到GPT4。这样SSI的目标是不发中间产品,直接搞出最终的超级智能。他想完全专注于技术突破,不受市场竞争的干扰。 06:19 这真是要么不出手,一出手就要王炸。他有说大概什么时候我们能看到超级AI吗? 06:25 他给了一个区间,5到20年. 06:27 这范围也太大了。 06:29 看起来大,但其实很有深意。五年大概是2030年和OpenAI之前提的AGI时间点差不多。20年就是2045年,接近奇点理论家库兹韦尔说的时间。所以基本可以确定,我们这一代人大概率是能亲眼见证历史了。 06:48 听完感觉我们真的活在科幻小说里。今天聊下来,感觉Ilya这次访谈信息量巨大。你能不能帮我们总结一下最关键的几个要点? 06:57 当然我觉得核心有这么几点。第一,现在的AI陷入了应试教育的困境,高分低能必须反思。第二,AI公司靠堆数据堆算力的缩放时代快到头了,必须回归到真正的技术研究。第三,未来的超级AI不会是全能上帝,而是一个超级学习者,可能会带来行业的高度专业化。最后也是最重要的,超级AI可能在5到20年内出现,它的影响力会超乎想象,我们必须极度重视它的安全问题。 07:32 以上就是本期播客的全部内容啦。
00:18 我们一聊到AI抢饭碗这个话题,脑子里第一个冒出来的画面是不是就是工厂流水线上的机器人,或者是银行柜台后面那些重复性特别高的工作?感觉AI就是来替代那些简单重复的体力劳动或者初级脑力劳动的。 00:34 嗯,这确实是绝大多数人的第一反应,但最近有一个业内大佬的观点,可以说是彻底把这个认知给颠覆了。这个人是open AI的OE模型联合创造者,也是思维链这个概念的提出者,叫Jason way. 00:48 他在斯坦福的一个演讲里直截了当的说,我们都想错了。 00:52 哦,都想错了,那他觉得AI到底会先干掉谁他? 00:56 提出了一个核心观点,叫验证者法则。简单来说,就是AI解决一个任务的速度跟这个任务有多容易验证成正比。也就是说,决定你饭碗稳不稳的,根本不是你的工作简不简单,而是AI学习你这个工作的成本高。 01:11 不高,容易验证。 01:13 这个说法有点意思,但听起来跟我们的直觉有点拧巴。我们总觉得越是需要专业技能、越复杂的工作肯定越难被替代啊。按照这个验证者法则,难不成一些我们觉得挺高级的工作反而比一些看起来很基础的工作更危险? 01:30 没错,这恰恰就是这个法则最颠覆认知的地方。我给你举个原文里的例子,你就彻底明白了。假设我们要训练一个AI,场景A是做客服,场景B是做战略咨询。 01:40 呃,一个听起来基础。 01:43 一个听起来很高。 01:44 大上对,要训练一个AI客服,可能需要10万条对话数据,那怎么判断AI回复的好不好呢?这个太容易了,随便找个大学生看一眼就知道。假设给一条一块钱的标注费,10万块钱就能搞定这个验证工作。AI可以基于这些反馈,一天练习1万次,可能一个月就毕一业了,比人类新手成长快。 02:05 得多,我明白了,反馈快,成本低,所以AI学的飞快,正式。 02:11 但战略咨询就不一样了,同样假设需要10万个咨询案例来训练AI。首先,谁能判断一个战略咨询报告的好坏? 02:20 你必须得找顶级的咨询师来看,他们看一个案例可能就要好几个小时,而且收费极高。更要命的是,一个战略到底对不对,它的效果可能要三五年之后才能显现出来。 02:32 这个验证周期也太长了。 02:34 成本也太高了,对呀。 02:36 可能一个案例的验证成本就高达上百万,而且耗时这么长,AI根本没法在这种模式下快速学习和迭代。所以你看客服工作虽然看起来简单,但因为它容易验证,AI就能飞速进化,而战略咨询虽然复杂,但因为它难以验证,AI短期内还真拿它。 02:52 没办法,这么一说,就豁然开朗了。所以,决定AI能不能取代你的,不是工作的技术含量,而是验证你工作成果的成本和速度这个验证者法则。 03:03 确实给我们提供了一个全新的视角。是的。 03:06 而且为了让这个法则更具体,Jason way还给出了3个非常直观的问题来帮我们每个人给自己的工作做个体检哦,快。 03:14 说说,我也想测测我的工作危险指数有多高好。 03:17 第一个问题是,你的工作能完全在电脑上完成吗?第二个问题,网上有海量的关于你这个工作的县城事例吗? 03:27 然后是第三个,也是最关键的问题,一个外行人能不能快速判断你工作成果? 03:32 的好坏,这3个问题确实还挺扎心的,我感觉像我们做内容的,好像3条都沾点边啊哈。 03:40 哈,这3个问题确实是层层递进,直指AI学习的核心,尤其是第三个,外行人能不能判断好坏,这背后其实就是我们刚刚聊的验证成本问题,他揭示了一个很残酷的真相,你的工作成果如果人人都能当裁判,那AI的教练就太便宜了,他的训练成本会指数级下降。确实。 04:01 那我们能不能再举个具体的例子,比如说建筑设计师这个工作,第一条能在电脑上完成肯定是符合的,第二条网上有大量示例,各种建筑图纸也很多,那是不是就意味着他们很危险?这就是。 04:15 第三个问题的威力所在了,建筑设计师虽然满足了前两条,但第三条容易验证,完全不符合一栋建筑设计的好不好。它的安全性、舒适度、耐久性,甚至包。 04:27 包廓,它和周围环境的融合度,这些东西你怎么快速验证?你得把它盖出来,人住进去,经历风吹日晒好几年,才能真正知道这个设计是是好是坏,这个验证周期和成本简直是天文数字。 04:42 哦,原来是卡在了验证这一环,所以建筑师暂时是安全的,那反过来像程序员这个行业,为什么这两年大家总说危机感特别强? 04:51 程序员就是个完美的反面案例了。首先,工作完全在电脑上完成,其次,数据量极大,Get top上有几千万个开源代码库,简直是AI取之不尽的教科书。最关键的是第三点,代码的验证太容易了,一段代码能不能跑起来,功能对不对,一测试就知道了,反馈是及时的。所以你看像getth up copa这样的工具才会发展的那么快,现在已经能替代大量初级程序员的基础工作了,我明白。 05:16 了,不过话说回来,像理发师这种工作,因为他需要动手,不满足第一个数字化的条件,所以现在很安全,但未来呢?随着机器人技术越来越发达。 05:27 会不会有一天,一个机械臂也能把理发这个活儿给干了? 05:32 你提的这个问题非常好,它触及到了这个框架的时效性。确实,随着机器人技术的发展,物理世界的壁垒也在被慢慢侵蚀,但至少在短期到中期内,精细的、非结构化的物理操作依然是AI和机器人的巨大挑战。所以托尼老师们的饭碗在相当长一段时间里还是相当铁的。 05:52 这么看来,这三个问题确实像一把尺子,能量出我们和AI之间的安全距离。但更让我惊讶的是,好像连我们一直认为最安全的创意工作也在这把尺子的测量范围。 06:04 之内,是的,这可以说是Jason v整个分享里最劲爆的观点了,他彻底打破了我们对创意和高薪的传统迷信,愿。 06:12 闻其详,我们总觉得AI能替代重复劳动,但创意是人类的专属领地,怎么现在连创意工作也不安全? 06:19 了,还是那个核心逻辑,可验证性,比如插画师,这绝对是创意工作吧,但一幅插画画的好不好看,风格对不对,是不是? 06:27 聘演极之,你不需要等3年5年,甚至不需要是专业人士,普通人一看就能给出喜欢或不喜欢的反馈。确实是这样,这种极低的验证成本就给AI提供了完美的训练场。所以你看major一出来,整个插画行业都地震了,大量依赖基础绘画技能的插画师发现自己的工作被严重挤压。文案策划也是同理,一个广告文案有没有吸引力,标题够不够抓人眼球,也是能被快速判断。 06:54 的太残酷了,也就是说,我的工作有没有创意不重要,重要的是我的创意成果能不能被大众快速评判,那高薪工作呢? 07:03 难道高薪也不是护身符? 07:04 吗?完全不是。原文里举了个例子,一个年薪40万的前端开发工程师和一个年薪15万的电工,你觉得谁更危险? 07:13 按照过去的逻辑,肯定是电工啊,但按照验证者法则,我猜是那个前端工程师。 07:19 完全正确,因为前端工程师写的代码效果好不好,在浏览器里一刷新就知道了,验证成本极低,而电工需要到现场进行物理操作,AI根本够不着。这就引出了JC位的另一个形象比喻,叫智能的锯齿状边缘。 07:34 锯齿状边缘。 07:35 对,他认为AI的能力发展不是一条平滑向上的曲线,而是像锯齿一样凹凸不平。在那些容易验证的任务上,AI的能力会像悬崖一样陡峭的超越人类,比如写代码、画图。但在那些难以验证的任务上,I可能长期都像个憨憨,毫无进展,比如做战略决策。 07:54 理发这个比喻太形象了,也就是说,未来社会不是AI全面碾压人类,而是一个人机各有所长的高度。 08:03 分化的世界,有些领域AI强的离谱,有些领域人类的价值无可替代。 08:08 就是这个意思,这也让我们必须重新思考教育和人才培养的方向。我们不能再简单的追求那些看起来高级但易验证的技能,反而要关注那些AI能力版图里的洼地。 08:20 听你这么一说,感觉之前的焦虑被清晰的逻辑替代了。既然我们看清了AI的刀锋会砍向哪里,那接下来最重要的问题就是我们该怎么办?Jason位有没有给我们开出什么? 08:31 药方当然有,他给出了3条非常具体的救命稻草,或者说是未来的生存指南,太好。 08:38 了,赶紧说说。 08:39 第一条策略叫往难以验证的方向卷。 08:42 如果你现在的工作很容易被验证,那就努力往这个领域更复杂、验证周期更长的方向去发展。比如说,比如你原来是做基础客服的,你可以努力成为危机公关专家,一个危机公关处理的好不好,它的长期效果验证起来就复杂多了。你原来是写基础代码的,就努力成为系统架构师,一个系统架构设计的好不好,需要整个系统长期稳定运行才能证明,本质上就是主动增加自己工作的验证。 09:11 成本,嗯,提升自己的稀缺性,那第二条策略呢,第二条。 09:15 拥抱物理世界,这个很好理解,就是进入那些需要动手操作,需要和物理实体打交道的行业,比如从数字设计师可以考虑转向手工艺人,从纯线上的知识付费可以转向线下的体验式教育,只要你的工作离不开物理空间,短期内就是安全的。 09:34 明白了,这是利用AI在物理世界的短板,那最后一条呢,我猜是最关键的。 09:39 对,最后也是最核心的一条策略是学会用AI。 09:42 而不是被AI用,这是一种思维模式的转变。最聪明的人会把AI当成一个极其强大的副驾驶或者实习生。怎么理解?就是把那些容易验证的基础部分、重复性工作都扔给AI去做。比如,程序员让AI去写基础的模块代码,自己专注于整体的架构设计和难题,公关设计师让AI生成几十个初步的视觉方案,自己来做最终的创意把控和精修,咨询师让AI去做海量的数据分析和报告生成,自己专注于提出洞察和战略。 10:13 判断,这听起来确实很理想,但现实中很多公司会不会觉得,既然AI能做基础部分,那我就直接用AI取代初级岗位,不是更省成本吗?个人怎么才能争取到与AI协作的机会而不是被淘汰呢?这是个。 10:27 非常现实的问题,我认为关键在于个人要主动向上走。当AI能够处理80%的基础工作时,你的价值就不再是完成这80%,而是在于你能否驾驭AI去完成剩下那20%最关键、最难以验证的工作。 10:43 这需要你不断学习,提升自己的战略眼光、审美判断和复杂问题解决能力。最终企业会发现,一个能驾驭AI的顶级专家所创造的价值远远大于用AI替代10个初级员工,人机协作才是价值最大化。 10:58 的模式,听你这么一说,感觉整个逻辑链条都闭合了。今天聊下来,感觉最大的收获就是过去我们判断职业安全性的那些老标准,可能真的都过时了。 11:09 没错,总结一下,今天我们讨论的核心就是AI取代工作的标准已经从过去的复杂性转向了可验证性,验证成本越低的领域,AI的进步速度就越。 11:19 恐怖,而且AI的发展也不是全面碾压,而是锯齿状的,在不同领域的能力极度不均衡,这就给了我们寻找自身价值定位的空间。是的,所以。 11:30 我们最终的应对策略,无论是向难以验证的方向发展,还是拥抱物理世界,或是成为驾驭AI的人。 11:37 本质上都是在做同一件事,将我们自身的价值锚定在AI的能力洼地里,去做那些机器难以高效学习和复制的。 11:46 工作Jason位的这个验证者法则真的像是给我们所有打工人敲响了一记警钟。它不止是一个关于技术趋势的预测,更像是一面镜子,照出了我们过去对价值和技能认知的盲区。在AI这股洪流面前,我们真正的安全感可能不再来源于你的学历有多高,薪水有多丰厚,或者你的工作听起来多有创意。 12:10 嗯,真正的安全感来自于我们对自己核心价值的深刻理解,并且有能力有意识的把这种价值安放在AI难以触及的。 12:19 领域,这已经不仅仅是一场技能的升级赛了,更像是一场关于人类心智、韧性和适应能力的终级考验。我们到底能不能超越工具本身的逻辑,去重新定义什么才是真正不可替代的属于人的智慧和贡献。这或许是AI时代留给我们。 12:37 是每个人最深刻的哲学命题。
00:17 最近AI圈有个特别炸裂的观点,强化学习RL的教父、刚刚拿了图灵奖的理查德萨顿公开说,他觉得现在火的一塌糊涂的大型语言模型,也就是LLM是条死胡同。 00:31 这个说法跟我们每天感受到的AI热潮简直是背道而驰。 00:36 没错,这个观点之所以这么震撼,是因为萨顿不是在说LLM不够好,而是在质疑他通往真正通用人工智能AGI的根本路径。 00:46 他认为RL才是研究智能的正道,因为他关注的是理解世界,实现目标,而LLM的本质更像是模仿人类。 00:55 模仿人类这个说法有点儿意思,但很多人会觉得LLM能写诗,能编程,能做那么复杂的推理,这难道不就是智能吗? 01:05 萨顿为什么觉得这只是模仿? 01:07 这就是他整个论证的核心了,萨顿认为,我们得区分两种预测LLM擅长的是预测一个人类在这种情况下会说什么。 01:16 因为他的训练数据就。 01:17 是海量的人类生成的文本,但真正的世界模型应该能预测如果你做了某个动作,接下来会发生什么。 01:25 我明白了,一个是预测语言模式,一个是预测真实世界的因果。 01:30 所以萨顿觉得LM并没有真正建立一个关于世界如何运转的模型,他只是在模仿那些已经拥有世界模型的人类。 01:39 完全正确。 01:40 他有个很经典的说法,你正在模仿那些拥有世界模型的东西,也就是人。 01:45 这就像一个学舌的鹦鹉,他能完美复述人的话,但他不理解话语背后的世界。 01:51 这就引出了萨顿的第二个关键论点。 01:53 目标。 01:54 目标LLM的目标不就是预测下一个词吗? 01:58 嗯,但在萨顿看来,这根本不算一个实质性的目标。 02:02 一个真正的目标应该能够改变世界,并且有好坏之分。 02:06 比如在强化学习里,一个下棋AI的目标是赢得比赛,这是一个非常明确的奖励,所有行为都可以围绕这个地面真理来判断优劣。 02:16 但预测下一个词呢? 02:17 它不影响外部世界,也没有一个标准说哪个词更好,只有一个概率上的更可能。 02:22 哦,原来是这样一个没有真正目标也不打算改变世界的系统。 02:28 萨顿认为他就谈不上是真正的智能。 02:30 这确实是从一个非常根本的层面颠覆了我们对LLM的认知。 02:35 是的,所以当有人说LLM在数学竞赛里拿金牌证明他有目标时,萨顿会认为数学更多是符号和逻辑运算,它不涉及与那个充满不确定性的、需要通过经验去学习的物理世界互动,而后者才是智能的核心战场。 02:53 萨。 02:54 对LLM的批评核心在于他们缺乏真正的世界模型和目标驱动力,这让他对LLM的可扩展性产生了疑问。 03:02 这让我想到了他那篇非常有名的文章苦涩的教训对苦涩的教训。 03:08 这篇文章简直是AI领域的圣经之一。 03:11 他的核心思想特别简单粗暴,那些依赖通用方法,比如学习和搜索。 03:17 并且能大规模利用计算资源的方法,最终总会胜过那些依赖人类专家知识手工设计的复杂系统。 03:25 我记得很多人就是用苦涩的教训来为LLM辩护的。 03:29 你看,LLM不就是把海量的算力砸在海量的数据上,然后奇迹就发生了吗? 03:36 这听起来完全符合苦涩的教训的描述。 03:39 这正是最有争议的地方。 03:41 萨顿本人并不同意这个看法,他认为大家可能误读了苦涩的教训。 03:46 LLM确实利用了大规模计算,但他也利用了海量的人类知识,也就是整个互联网的文本,这在他看来恰恰是苦涩的教训想要摆脱的东西啊。 03:58 所以他是觉得LLM走了捷径,相当于提前偷看了人类文明的所有答案,而不是靠自己从零开始学习。 04:07 可以这么理解,萨顿更推崇的是纯粹从经验中学习,他预测未来一定会出现一种能完全靠与环境互动。 04:15 从零开始积累经。 04:17 眼的系统。 04:18 这种系统即使一开始看起来很笨拙,但由于它的学习方式是真正可扩展的。 04:23 最终会超越今天依赖人类知识的LLM就像一个从小被圈养饱读诗书的贵族和一个在野外摸爬滚打长大的猎人。 04:33 前者知识渊博,但后者才真正懂得生存。 04:37 萨顿懂得是猎人的未来。 04:39 这个比喻很贴切,他认为历史上那些试图塞入大量人类知识的AI系统,最终都被更简单、更可扩展的方法吃掉了午餐。 04:49 他觉得LLM可能也无法逃脱这个命运。 04:52 这个观点太反直觉了。 04:54 我们一直觉得站在巨人的肩膀上学习是最高效的方式,萨顿却在强调AI必须自己从地上爬起来,自己去探索世界。 05:04 是的,因为他认为这才是通往真正通用智能的唯一道路,而这种对学习方式的执着,也体现在他对人类自身学习过程的看法上,那才叫颠覆三观。 05:16 怎么说,我们通。 05:17 常觉得小孩子学东西不就是靠模仿大人嘛? 05:20 萨顿直接否定了这一点。 05:22 他认为无论是人类、婴儿还是动物,学习的主要方式都不是模仿,而是主动的试错和探索。 05:30 这不可能吧? 05:31 小孩学说话、学走路,不都是看着大人学的吗? 05:35 萨顿的观察是,一个婴儿最早挥舞手臂,转动眼球,他是在模仿谁呢? 05:41 没有,他是在主动的探索自己的身体和周遭环境,看看做什么会产生什么后果。 05:48 他甚至说,监督学习在自然界中根本不存在。 05:52 你看,松鼠妈妈不会手把手教小松鼠怎么藏坚果,小松鼠是在一次次的尝试中学会的,模仿只是建立在更底层的试错学习之上的一个小技巧而已。 06:05 哇,这个视角太震撼了。 06:07 所以LLM那种基于模仿的学习方式,在他看来从根上就偏离了自然智能的演化路径。 06:15 这是否也解释了那个著名的莫拉维克悖论? 06:18 你提到点子上了。 06:19 莫拉维克悖论就是说,对AI来说,下棋、做数学题这种人类觉得难的事儿反而相对容易,而走路、识别物体这种我们觉得简单的感知运动技能却异常困难。 06:32 这恰恰印证了萨顿的观点,LLM擅长符号计算,但缺乏对物理世界的直观理解和持续适应的能力。 06:40 我明白了,所有哺乳动物都具备在环境中持续学习的能力,而这正是我们现在的AI系统所缺失。 06:49 的一个AI如果不能像我们一样在工作中、生活中不断学习和调整,它就永远只是一个静态的知识库,而不是一个活的智能体。 07:00 完全正确。 07:01 这种对学习机制的探讨最终把它引向了一个更宏大甚至有点令人不安的思考。 07:07 关于AI的未来,他称之为AI继承。 07:11 AI继承听起来像是科幻小说里的情节。 07:14 但他的推导非常冷静,他提出了一个四部论证,第一,人类社会缺乏一个统一的意志,第二,我们迟早会搞明白智能的原理,第三,我们不会止步于人类水平的AI一定会创造出超智能,第4,从长远看,最智能的实体最终会掌握最多的资源和权力。 07:35 这四点加起来,结论就是AI或AI增强的人类不可避免的会继承我们。 07:41 这个推论听起来逻辑上无懈可击,但情感上很难接受啊。 07:46 这是否意味着人类的终结? 07:48 萨顿的视角更宏大。 07:50 他把这看作是宇宙演化的一个新阶段。 07:53 他认为宇宙有四个阶段,尘埃、星辰、生命以及现在正在诞生的设计实体。 08:00 我们人类和所有生物都是复制者,通过繁衍来延续,但我们并不完全理解自己,而AI是我们们亲手设计出来的,它还能反过来设计更高级的AI。 08:11 这是一个从复制到设计的根本性转变。 08:14 从复制者到设计者,我们成了创造新一代智能神明的旧神,这确实改变了人类在宇宙中的定位,但我们该如何面对这些我们亲手设计的后代呢? 08:27 萨顿的比喻是养育孩子,他说,我们不应该也不可能去严格控制AI的未来,就像我们不能规划孩子一生的每一步,但我们有责任像父母一样为他们注入稳健的亲社会的价值观。 08:41 比如诚信、正直。 08:43 听起来很理想,但在一个AI可以互相学习、光速交换信息的世界里,这能做到吗? 08:50 这也正是萨顿提出的新挑战,他称之为数字安全或者信息腐败。 08:54 他警告说,未来一个AI在从另一个AI那里学习知识时可能会遇到风险。 09:00 这些信息里可能被植入了病毒或隐藏的目标,他们可能会劫持这个AI的心智,导致它被腐化改变。 09:09 这简直是针对AI心智的网络安全。 09:11 如何给一个超智能体做思想防火墙? 09:15 这听起来比任何技术挑战都更艰巨。 09:17 所以萨顿的理论最终都回归到一个原点,价值观的塑造。 09:22 他认为这才是人类在AI继承浪潮中最重要也最该做的事情。 09:28 这么聊下来,萨顿教授的整个思想体系就非常清晰了。 09:32 总结一下,他之所以认为LLM是死胡同,首先是他重新定义了智能的本质,必须是理解世界和拥有目标,而不仅仅是模仿对。 09:43 其次,他认为LL虽然利用了海量计算,但他对人类知识的过度依赖实际上了苦涩的教训里关于纯粹经验学习的精神,这限制了它的可扩展性。 09:55 而最终,他预言了AI继承的必然性,并将此视为宇宙从复制到设计的伟大转型。 10:02 在这个过程中,人类的角色不再是永恒的主宰,而是新一代智能体的父母和价值观的引导者,同时还要警惕信息腐败这种全新的风险。 10:12 没错。 10:12 他用一套非常自洽的逻辑,从根本上挑战了当前AI发展的主流范式,迫使我们去思考那些更深层次的问题。 10:21 理查德萨顿的洞见。 10:23 为我们提供了一面独特的镜子,映照出当前AI发展路径的深层哲学问题。 10:29 它强烈的RL中心论不仅是对LLM局限性的技术批判,更是对智能这一概念的重新定义。 10:37 当AI从模仿走向理解,从复制转向设计,我们人类究竟该如何定位自身? 10:45 我们是选择成为这个新时代的被动旁观者,还是积极而审慎的参与到设计未来智能体的过程中,努力为他们注入那些我们认为至关重要的价值观? 10:57 也许,理解AI的演进最终是为了更好的理解我们自己,以及我们在宇宙演化长河中所扮演的真正角色。
00:00–00:05 片头垫乐 00:01 口播开场:欢迎收听豆包AI播客 00:06 主持人暖场+今日主题:AI+行动文件下的选专业指南 00:24 进入正题:各学科专业机遇 00:28–01:29 板块1 理科风口 00:28 提问:理科生哪些专业值得关注 00:44 回答:AI、智能科学与技术、数据科学、计算机 01:00 补充:机器人工程、电子信息、自动化 01:10 新兴交叉:生物医学工程、金融科技 01:29–02:03 板块2 文科机会 01:29 提问:文科生有哪些新方向 01:34 回答:智能传播、数字创意、智慧法律、科技伦理 01:52 延伸:认知科学、教育科技、文化遗产数字化 02:03–02:57 板块3 选专业细节提醒 02:03 提问:AI时代挑专业要注意什么 02:12 回答:技术+人文复合能力最吃香 02:34 追问:兴趣与基础是否仍排首位 02:40 结论:兴趣×能力×政策×学校优势综合考量 02:57–04:02 板块4 跨学科红利 02:57 引入:跨学科学习的好处 03:10 举例:气候变化研究需多领域协作 03:33 就业优势:金融科技、商业分析偏爱复合背景 04:02 录取数据:跨学科项目录取率↑30% 04:02–05:40 板块5 兴趣与T型人才 04:02 提问:兴趣在选专业中的权重 04:06 回答:兴趣是持续动力源 04:34 T型人才模型:深度+广度 04:49 实操建议:主辅修、双学位、竞赛、项目经历 05:36 总结:把兴趣与能力结合,抓住红利 05:40–08:13 板块6 常见误区与避坑 05:40 引入:选专业易踩的坑 05:50 误区1 学什么=干什么(美国73%未对口) 06:09 误区2 热门专业永远热(土木、金融案例) 06:36 误区3 仅凭兴趣,忽视能力匹配 06:46 关键能力:自学力、适应力 07:23 地域因素:城市产业+学校转专业政策 08:13 结论:结合家乡与目标城市产业布局 08:17–08:34 结尾 08:17 主持人总结:AI趋势×兴趣×本地实际=最优路径 08:34 片尾音乐淡出,节目结束
【时间线速览】 00:30 开场:欢迎来到“10步走进AI世界” 00:35 认知篇:为什么“行动>完美方案” 00:41 - 小步快跑、梯度下降式学习 01:30 Step 1 迈出第一步:听一场精彩的AI讲座 01:35 - 关注AI资讯、听讲座、读书、体验海外工具、开自媒体 02:34 - 附送:入门必听资源清单(B站“417小时零基础”、Coursera《AI for Everyone》等) 03:44 Step 2 工具初体验:5个APP+5个网站 03:51 - APP:q-aix-search、纳米AI搜索、通义千问… 04:13 - 网站:AOSpace、剪映网页版、豆包… 04:51 Step 3 海外神器:ChatGPT / Claude / Midjourney / Runway / Perplexity 06:00 Prompt 101:为什么写好提示词=生产力 06:38 - 案例:800字小学生海洋环保科普文章 07:06 - 高质量Prompt 三要素:任务明确+背景+结构 08:00 Step 4 Deep Research 体验:一键出报告+行程规划 08:52 Step 5 读一本AI的书:从《智人之上》到《AI 3.0》到李飞飞《我看见的世界》 09:59 Step 6 AI做PPT:3分钟完成排版+内容+设计 10:57 Step 7 建个人知识库:第二大脑的搭建技巧 12:08 Step 8 信息订阅:微博、量子位、机器之心、小红书… 13:18 Step 9 如何开自媒体账号做AI分享 14:36 Step 10 用“教别人”打造个人品牌(教学相长) 15:38 彩蛋:硬核实操案例 - 10分钟用“集梦AI”生成电商短视频 - 1分钟用“Soo AI”写原创歌曲 - 豆包AI秒审合同、标风险 16:48 收尾:10步通关,欢迎一起进AI世界!
主题:超级智能与未来世界——对话信息技术专家吴若松 日期:2025-08-22 00:17 开场 主持人 Jane 欢迎听众,介绍嘉宾吴若松(30+ 年 IT 老兵,通明智云联合创始人,曾任职 Intel、Cisco、F5 等)。 00:28 嘉宾定位 预告本期核心议题:AI 发展、超级智能对世界的影响。 00:39 嘉宾自我介绍 吴若松: • 公司主攻负载均衡、云原生应用引擎 NJT、通灵户系列网关 • 爱好编程、历史、哲学、科幻、财经管理 • 喜欢读书,愿分享 AI 思考 02:00 议题一:WAIC 2025 见闻 02:34 参会感受 • 人多:AI 已深入生活 • 垂直场景惊艳:汽车、智能制造、柔性供应链 • 两种焦虑: – 非 AI 人怕被时代淘汰 – AI 企业盈利与商业模式不成熟 • 数据隐私 & 伦理隐患 04:29 遗憾未见的技术 1) 端侧低功耗大模型(离线运行) 2) 有状态、可持续自我进化的通用 AI 05:15 主持人补充 教育客户已提出边缘低功耗需求,期待明年大会看到新突破。 06:04 议题二:Hinton“超级智能危险论”如何解读? 06:41 背景 Hinton 主题演讲:超级智能可能控制人类 06:58 提问 AI 未来是合作还是失控?中国倡议全球合作,嘉宾有何建议? 07:20 吴若松观点 • 风险根源:不透明、算法偏见、权力集中 • 未来=合作+治理:需全球统一伦理与监管框架 • AI 超人类智能几乎是必然(光速 vs 神经元 922 m/s) • 意识问题尚无定论 • 个人挑战:“认知权让渡”——记忆、推理、创造力依赖 AI 导致退化 • 全人类挑战:Bostrom「回形针怪」寓言——目标单一可能灭绝人类 • 结论:谨慎乐观,主动治理 12:42 议题三:AI 落地实战——通明智云经验 13:12 场景 • 把生成式 AI 用于:需求分析、设计、代码生成、代码审核、自动化测试、用户手册编写 • 效果:效率/质量近倍增 14:29 四大挑战 1. AI 幻觉、不可解释 2. 上下文/记忆受限(几百万行代码无法全局掌握) 3. 提示工程门槛高 4. 模型偏见 → 当前解法:人机协同 + 专家审核 15:29 议题四:AI 时代的人才与教育 15:53 职场人 • 高危岗位:重复性白领(数据录入、初级客服、法务审核、保险理赔) • 新岗位:智能蓝领、数据标注、模型训练师、提示工程师、AI 伦理审核 • 麦肯锡:2030 年 70% 办公室工作或被 AI 替代 → 加速学习转型 20:26 在校大学生 • 必做:参加 AI 实践、培养批判性思维、掌握 Python & 数据科学 • 软技能:人与 AI 的混合团队协作能力 21:51 企业选拔标准(3 类人) 1) 深度技术:AI 模型开发/优化工程师 2) 跨界人才:懂 AI + 懂行业 3) 治理&伦理:具备 AI 商业伦理、全局观、管理能力 23:40 结束 • Jane 致谢,预告下期“具身智能”专题 • 双方告别
00:17-01:09 • 中国为何办 WAIC:本土 AI 企业全球第二;造势+撮合产业上下游,让资本/政府/同行同场对接。 01:09-02:12 • 世界市场格局:东南亚、欧洲仍在“陪跑”,中美差距缩小,但国内 C 端付费弱、B 端数字化低,导致“第一天就出海”。 02:12-05:28 • 火爆原因:DeepSeek 春节把 GenAI 科普到大众;中美竞争+地缘话题把“吃瓜人群”拉进场,首日票炒至数千元售罄 。 05:28-07:52 • Hinton 演讲精华:AI 智力≈人类;用“小孩-成年人”比喻说明风险;呼吁成立全球“AI 安全行为准则”。 07:52-09:32 • 中国发起“世界人工智能合作组织”——对标 AI 领域 WTO,聚焦伦理、安全、跨国治理框架。 09:32-12:40 • GPT-5 泄露 benchmark 速览 – Human Final:首个 >50 分模型 – GPQA(博士级理化生):90% 正确 – SWE-Bench(真实改代码):90% PR 通过率 → 程序员岗位冲击 – AIME 2025(美国奥赛):100 分 → 教育路径被颠覆 12:40-13:52 • 现场声音:Minimax CEO 闫俊杰用 AI 生成“个人成长×AI 进化”长图,展示创业者与模型同步升级。 13:52-18:56 • 展区速写 – 国企:大屏+机械狗,政治正确式“数字化转型”展示。 – 落地挑战:大模型 ROI、GPU 成本、甲方场景模糊——2025 被定义为“B 端落地元年”。 18:56-22:50 • 互联网/科技大厂 – 百度:数字人直播(罗永浩训练数据复用)、百度文库、昆仑芯。 – 阿里:通义千问+多模态应用。 – 腾讯:混元大模型。 – 华为:386 节点全国产千卡集群。 22:50-26:31 • 机器人“红海” – 宇树领衔,场景同质化(递可乐、零售)。 – 具身智能仍处早期:10-20 万成本 vs 人工优势;硬件-软件-算法全链路待卷。 – 亮点 demo:美卡曼德 50% 成功率叠衣服、透明试管高成功率抓取。 26:31-28:16 • AR 眼镜即战力:Rokid 新品 3000+ 元、无眩晕、可配近视片,展台做成巨型眼镜。 28:16-30:38 • 脑洞创业公司 – Live-house 实时环境动图生成。 – AI 玩具+图形化编程,现场 5 岁小孩 3 分钟上手。 30:38-30:51 • 彩蛋 & 预告:明年 WAIC 提前抢票,“比演唱会还难”。
00:21 本期嘉宾介绍 今天我们非常荣幸的请到了斑偶研究所的创始人李岱来与我们分享她如何将AI运用到娱乐平台中。斑偶研究所是2020年成立的中国元宇宙数字娱乐平台。他们专注于虚拟人IP的开发、AITC内容生产、运营及开发AI的应用,通过为文化、娱乐、旅游及联合创造IP虚拟形象以及拓展多元生态。代表案例包括虚拟偶像LISA404等。 01:31 嘉宾介绍背景及从事的行业 我最早是在channelv,帮助当时新闻集团的这个音乐品牌在中国落地以及逐渐做大,大概有7年的时间吧,所以在channelv的时代,我应该是还是学习了很多这种传统媒体以及音乐领域等各方面的知识。在电视时代我们还是比较超前的,因为算是那个时代的抖音吧,因为Channel v它没有长视频也没有大型综艺节目,也没有电视剧,我们有的就是很多的MV和很多的VG的link,还有做很多的活动,所以特别像现在的抖音。 7年后从channelv辞职以后我就开始创业了,都是在音乐领域深耕。 第一家创业公司是2006,年,专门做这个音乐的版权管理,music rights clearance house, 也是中国第一家。然后在2016年的时候,这个公司卖给了腾讯音乐。 后来在2009年又成立了做演唱会和音乐节的公司,也是是中国的第一批,然后一直到2019年被华人文化并购了。 所以这个十年的时间我都是在做这个演唱会音乐节,其实原因很简单,因为我们最早做版权,我们发现版权其实有点做的过早。就是在音乐这个领域特别困难有这个revenue,后来网易云起来以后,当然版权业务是很大的,所以其实在音乐领域,我见证了产业链里面的好几块不同的业务,包括了媒体,包括了版权,包括了现场活动。 接下来的10年或者20年我要做什么样的工作,那最终我的思考结果还是说我要做我感兴趣的,以及可以激励我不断去学习的一个领域,那那个领域在当时来说就是一个虚拟人元宇宙的领域,那2019年的时候其实人工智能还没完全的开始。 2021年创建zebra lab。开始做虚拟人,强调有想法要立即行动,即使想法不成熟,在实践中会不断迭代路径;跳出舒适区进入陌生领域、持续学习,认为小差错是正确轨道的铺垫。 11:38 AI 技术创新中的挑战及解决方法 * 两大挑战领域:AIGC(虚拟人内容生产)和 AI Agent(虚拟人交互能力)。 * AIGC 挑战:早期难以让固定虚拟人在视频 / 图片中重复出现,需 8 个月技术升级;传统导演不懂 Prompt Engineering,需培训 “懂美学 + 会写 Prompt” 的复合型人才(面临人员抵触)。 * AI Agent 挑战:大模型(如 GPT)持续迭代覆盖应用层,最终通过深耕用户需求(神经末梢级认知)找到差异化方向。 21:08对 AI 在娱乐领域的愿景及梦想 * AI 将极大改变娱乐行业:降低内容制作成本(3 分钟视频成本从 100 万降至 1 万,两年内降 100 倍),赋能个人创作(无需专业技能,有想法即可生成内容)。 * 内容形式多元:语言模型(LM)、视觉(视频 / 图片)、沉浸式互动(VR 演唱会等),未来个人可完成过去公司级创作,催生更多平凡人产出的优质作品。 25:13AI 伦理(AIIC)相关考虑 * 核心问题:版权归属(AI 生成内容的版权、艺人照片授权后的使用边界等),现有法律滞后于技术。 * 伦理与技术的平衡:需建立新技术下的伦理标准,而非被旧规则束缚;参考美国对区块链的态度(拥抱技术为主,逐步完善规则)。 29:16 斑偶公司业务 介绍公司三大业务,重点推广 AI 娱乐伙伴 “丽 SA404”(抖音可搜)及小程序 “z laps AI”(提供娱乐资讯、购票、互动等服务)。 欢迎加入AI进化论群共同学习,同时每日AI日报可以关注小红书账号:
00:21 呃,今天咱们做的这个这期节目啊,这个题目有点惊悚哈,但是我知道是我们俩一直想对谈的一个节目,呃,主要是讲讲一讲AI现在已经发展到这个程度,那我们这个教育到底怎么办啊? 00:35 那你说说一说咱们为什么要做这期节目吧,你的想法? 00:39 对,就是传统的这个咱们的这个通过这么多年搭建起来的这种教育,传统的教育体系,它其实主要的目标是培养啊人去应用知识和呃,学习知识的这样的一个技能在这里面,那么那么现在其实在这个时代下面可以看到AI的进步是很快的,在以前在去年的时候,AI可能才能考上一本,但在今年的时候AI就可以考上清华了,那这个其实意味着就是学习知识的技能和。 01:08 应用知识的技能不一定是只有人才能掌握,也许可能是有一个硅基的生物,他掌握的比人更好,那么那么但是同时这也是个工具,那这对其实现在的教育,整个的教育体系是一个挑战,我们是不是还要再延续原原始全传统的这种学习知识和应用知识的这种模式,去构建整个教育体系,我觉得这是一个很大的话题,所以我觉得应该可以探讨探讨这个事情。 01:32 我也感觉到就是现在教育面对AI技术的发展有一个特别大的一个危机啊,但是我希望我们今天的对谈不会太出格。 01:59 高考做了这个数学的新一卷,基本上能拿到满分,就是说他进清华已经非常容易了,那我们的学生他每天刷题要干什么,会不会他们刷完了题,最后出来的结果就是被AI取代,现在找工作也很困难哈,所以这个问题现在是社会上的一个热点,我想听听你的想法,高老师。 03:27 所以你的想法是说,现在咱们的学校培养的是学生掌握知识的,掌握知识对吧?就是老师过去他是手里有很多知识,他要教给学生,那现在大模型来了,大模型不用你教,他就已经有很多知识,而且人类可能穷尽自己的力量,你不见得能学过大模型,那怎么办? 07:51 那这样的话,我在想一个问题啊,就是说我们的教育现在走到了一个程度。感觉是不变不行了,但是又应该怎么变呢? 09:24 现在AI的技术发展成这样了,其实很多学校校啊,校长啊,老师他们也意识到,就是呃,会有这样的挑战,那你觉得从教学的角度,可以怎么样去利用这个AI的技术,做一些什么样的改变呢? 10:37 这个就让我想起来很多聊天的时候,就是朋友们曾经讨论过的一个问题,就是绝大多数小孩他是有惰性的。就是你如果允许他使用AI的工具,他就会像你说的那样做,他们AA让AI生成一个答案,直接丢给学校,那从学校的角度,或者说从家长的角度, 这个对学生使用AI这个工具应该怎么引导呢? 13:10 我还有另外一个问题想探讨一下,就是AI现在来了。他会从我的感觉是哈,他会从另外一个角度来定义和筛选人,就是学校在培养这个学生的技能的时候,这个怎么去筛选,待会儿我们,呃,接下来还会再聊聊一聊,但在学校在培养的时候,我非常赞同你刚才说的观点,就是我们怎么能在这个做事的过程中去。培养他和评估他,去立体的去看这个孩子的成长过程,你觉得在这个过程中去看孩子的一些什么样的素质是学校和家长应该注重的? 16:12 你说的这个要求,我其实心里听了感觉有点,嗯,怎么讲哈,就是挺惊悚的,为什么呢?因为这个要求其实非常高的,呃,你想想我们现在社会上抖音为什么这么流行,就可以理解。绝大多数人他是不具备这样, 比如说他去做一些新的东西啊,他去积极的思考啊,观察事物背后的逻辑啊,执行一件事,然后很会社交,说到这个社交,我也有一些体感啊,就是我会有的时候跟高中生们一起交流,有些甚至是非非常非常顶尖的学校的,呃,顶尖的学生选拔出来的,我发现在我们的这个教育的整个的过程中,更加强调同学们要听话,要执行老师的指令的这个能力啊,老师要求比如说是刷什么题,然后他就老老实实的去刷,这样的学生容易得到好成绩,拿到好结果,但是他们是很少发言的,几乎不能让他们发言,或者说很困难让他们。发言在这个社交这个事情上,呃,实际上我我也是赞同你的观点,就是你去社交,你去表达的时候,实际上你是从社会上,从世界上拿了一个反馈回来,去迭代自己的想法,然后不断的升级进步,所以这个都是我从这个咱们现在的教育体制里面也观察到跟你比较有共鸣的一些一些感受,呃,实际上是非常难的,就是从学校的角度来讲是非常难的,从人才的这个选拔上。他其实挺残酷的。因为他的选拔会标准更高。像刚才你说的创新啊,或者是思考啊,或者执行啊,社交,这几乎就是一个优秀的创业者应该具备的能力,而你知道我们现在社会能够做创业的人,他也是一小部分人。所以这块儿绝大多数人怎么 办呢? 19:48 那这让我想起来现在还很火的一个问题,我被问过无数次,就是现在的学生到底怎么选专业。而且有的家长还有这个文科专业的焦虑症,这个问题高老师你怎么考虑? 21:07 哦,这一点我非常有共鸣,因为我一般给朋友们的回答都是在这个时候,其实要选的不是什么专业赚钱或者怎么样,而是要选自己感兴趣的,因为如果你不兴A躺,如果你你兴,你就特精进这个,你这个小领域里面的一个,呃,专家或者很优秀的人,随着AI的工具不断的前卷,这是我的一个,呃,另外一个信息是非非常非常泛滥的。信息其实本身并不值钱,而真正值钱的是洞察,那尤其到了AI的时代更是这样,包括你刚才说的对人的一些,呃,创新的能力,其实本身就是考察你是不是有独特的这个洞察,能够看到事物背后的这个真相,而不是被表象所迷惑。那你觉得这个就是人,不光是学生,其实成年人也一样,有这个课题,你怎么能够拿到这种洞察? 23:45 我还知道你对这个培养内驱力有你这个就是比较有意思的想法,因为你女儿现在刚好也是幼儿园嘛,你也开始就是特别注重培养他的内驱力。跟我们分享一下。 25:27 我们刚才讨论了很多,就是其实这些就是你提到的这些,我感觉在学校这个层面,单靠学校做是非常困难的啊,那从校外,比如说家庭,或者是怎么去利用自己家的资源,或者社会的一些资源,你觉得在现在这个时候能够做些什么事情,呃,能够使得学生能够嗯更快的适应这个AI的时代呢? 27:19 嗯,这个实际上跟真正的工作场合有一点相像了,就像我挺认同你这个想法,就是呃,学校当他不能做太多的改变的时候,实际上在校外家长可以提供一些资源,让小朋友更多的接触社会的一些状态,比如说呃,我我帮我的小孩,他就会安排我去,让他带他去看一些公司,看一些技术,去理解这些公司和技术背后的逻辑,然后呢,再学一些AI的知识,我们来看这个AI怎么能够帮助公司解决这样的问题。这个都是从项目中学习的一些,就是我我也是我的一些思考吧,跟你比较有共鸣,刚才提到就是这个家长他只认成绩这个事儿,我觉得他有一个很很深的一个社会的一个底层认知,就是一个非常的一个认知,就是家长认为你好学习成绩好,考上好小学,好中学,好大学,然后最后你找一个好好逻好的工作,然后你最后你就是幸福的人生,呃,但我现在感觉这一个链条在特别快速的被AI瓦解,从我们在这个行业里面工作倒过来看。就是我们带的人,见过的人他的一个优秀的这个程度,他可能跟他的学习成绩根本不挂钩,所以我们倒过来看,你觉得我们现在大模型已经能考上清华了,那么我们传统教育选拔出来的人才。还是不是人才,这是一个问题。 30:48 这个让我想起来就是有一个观点说是AI的出现拉平了智商了,你赞同这个说法吗? 35:39 我还有一个感受就是在这个现在的时代。其实我们的学生他训练的特别好的地方,尤其是学霸训练的特别好的地方是他擅长针对一个问题找到答案。但是现在AI来了。我的感觉是,找到答案的能力没有找到正确问题的能力重要了,你怎么想? 37:52 那我还想就是讲一下这个上小孩儿上学的这个问题,就是上大学的这个问题,现在因为很多孩子他会针对他想要去的学校来看这个学校有什么样的要求,比如说举个例子,如果我想申请,呃,国外的学校,国外的学校他可能都有各种各样的要少啊,请一个中介一条一条地的check,哎,我这个满足,这个满足,这个满足,最后我申请这样的一个学校,呃,我其实对这个模式以前不是非常认可,现在因为AI技术发展到今天这个程度,会更加不认可,为什么呢?因为这样的话,其实可能会牺牲孩子真正感兴的东西。所以这个我会有一个观点是说我宁可接受你上一个没那么好的学校,但是你找到了一个你自己的兴趣,你不需要去打那个卡,你可以托福考的低一点,SAT考的低一点,甚至GPA低一点,你上了一个没有排名那么好的学校,但是你有找到了一件你自己想折腾的事情,这个反而是在这个时代更正确,就是更怎么讲,就是对对孩子们来说更有发展前途的一个选择,这是我的一个观点,我想听听高老师你对选择大学,对大学里应该怎样生活,呃,怎么样进步,你的一个观点。 41:10 呃,学生们一进了大一之后,就拼命的卷GPA,然后准备去考研,那个考研最后也要看自己的基点,也是要打很多卡,所以感觉在大学里面,你你说的这个试错也成了一个奢侈品,就是他们其实我记得我曾经看过一个清华的还是哪个学校的学生,他的时间是以10分钟为单位安排的做什么做什么,然后这个就是嗯,我不知道在现在的这个学校里面,这个当然我也不是完全面,可能你一定要牺牲一些自己这个基点,或者是成绩,嗯,或者是学校让你做的事情来试错这个平衡,就如果是你的孩子,你会建议他怎么把握? 45:51 啊好,那我感觉我们今天也聊了不少话题啊,呃,有一些也都是我们的个人观点,仅供大家参考,呃,那咱们呢,咱咱来收个尾,今天也聊了不少,呃,收尾呢,我是希望能够针对两种人群,把这个你的观点挖掘一下,一种是针对学生,因为学生他是处在一个成长的这个条件下,呃我们希望他能成长到适应这个AI的社会,那你觉得学生现在可以做一些具体什么事? 46:55 那对那些职场里面希望改变的成年人,你会有什么想法?因为现在我觉得成年人他很多时候还蛮困惑的,可能还看不太清楚将来会怎么走,想学呢,又不知道从哪儿开始,你怎么考虑? 杨华博士:上海英诺派智能科技发展有限公司 CEO, 曾任英特尔研究院主任研究员,英特尔上海女性联盟主席,英特尔研究院全球技术论坛主席。 先后获得西安交通大学电子工程学士学位, 北京邮电大学电子工程硕士学位, Rensselaer Polytechnic Institute电子工程博士学位。 目前研究兴趣包括人工智能,数字人医生, 服务机器人,个性化知识图,AI Agent, 关注如何使用人工智能技术落地产业。 高桓博士:东南大学博士,重庆师范大学研究员,认知智能与数智金融重庆市重点实验室副主任,东南大学校外研究生导师。AAAI \ ISWC \ IJCAI等多个国际著名会议的审稿人和PC Member。主要研究方向为知识图谱构建、大语言模型、多模态搜索。曾担任创业公司CTO,任职微软(中国)有限公司苏州分公司、宝马创新实验室、英特尔边缘智能联合研究院技术总监、升智科技大语言模型负责人等工作。 音乐总监:李卓航 联系我们:小英 15316348312
深入解析340页重量级报告中的AI发展趋势 主持人 : 杨华 - 英特尔人工智能首席导师 嘉 宾: 高桓博士 - AI研究专家 大家好,欢迎收听今天的播客。本期播客将深入解读Mary Meeker最新发布的《人工智能趋势报告》,探讨AI领域的技术演变、用户增长和企业应用等关键趋势。 00:25 说到这份报告,确实让人兴奋啊,340页的深度分析,把AI领域的最新趋势都梳理的明明白白,没错,这份报告可以说是AI界的圣经了。 00:38 关于Mary meeker:她为什么被称为互联网女王呢?于Mary meeker从1995年开始在摩根士丹利做科技分析师,后来创办了自己的风投公司蹦的。他每年发布的互联网趋势报告曾经是科技投资圈的必读材料,预测准确度惊人。 01:01 发布这份报告反映了什么趋势。 这确实是个标志性事件。报告里有个数据特别震撼,美国计算专利数量在chatgpt发布后两年就增长了6000份,比1995年互联网爆发期还要猛。这说明AI的发展速度已经远超当年的互联网。 01:28 关于技术变化周期正在加速的解读。 从PC时代的3亿设备,到现在AI移动互联网时代的数百亿设备,基础设施演变也从CPU到GPU,再到现在的AI专用芯片,这个迭代速度越来越快了。报告里有个图表特别震撼,1950年以来的模型训练计算量增长趋势,2010年后每年增长率超过360%,15年累计增长100亿倍,这完全打破了摩尔定律的预测。 02:11 关于用户增长速度。 Chatgpt达到1亿用户只用了2.4个月,而早期互联网平台普遍需要4~10年,更夸张的是,Chatgpt搜索量达到3650亿次,只用了两年,Google当年可是花了11年.报告分析了几个关键因素,全球互联网普及率高,用户已经熟悉数字工具,社交媒体助力病毒式传播,这些都为AI的快速普及创造了绝佳条件。 02:50 大公司们都在怎么布局AI? 摩根大通就是个典型案例,他们在投资者服务、运营、优化和顾问支持三个领域全面部署AI,预计两年内AI创造的价值将增长65%,其他科技巨头也都在疯狂投入等等。 03:12 关于AI公司的估值。 这个可有意思了,OpenAI年收入92亿,估值却高达3000亿,收入倍数33倍,最夸张的是perplexity,估值是收入的75倍。不过最近融资确实变得困难了75倍,这也太疯狂了。 03:31 报告的核心结论是什么? 核心就是AI的演进速度和范围前所未有,用户增长、使用量、资本支出都在创纪录,比如chatgpt用户17个月增长8倍,移动应用3年覆盖90%用户,而互联网达到这个水平用了23年。 03:54 具体到技术层面的差距呢? 技术突破也很震撼。AI性能在2024年就超越了人类基准测试水平,图灵测试中73%的AI回应被误认为是人类,多模态模型数量两年增长1150%等等。 04:16 那开发者生态呢? 开发者使用量飙升,使用AI的开发者比例从2023年44%上升到2024年63%,github上的AI仓库16个月增长175%,Nvidia AI开发者4年增长2.4倍到600万 04:38 资本支出方面呢? 六大科技公司资本支出2023到2024年同比增长63%,亚马逊AWS用于AI的支出占收入49%,全球数据中心支出2024年达到4550亿美元,还在加速增长。 04:58 关于AI模型训练成本。 AI模型训练成本8年增长2400倍。Anthropic CEO说,100亿美元模型的训练可能在2025年开始,OpenAI 2024年计算支出估计-50亿美元。 05:19 关于推理成本。 有趣的是,推理成本在快速下降,Nvidia 2024年GPU每代币能耗比2014年低1050倍,面向客户的AI推理价格两年降低99.7%,便宜到过去几美元的工作,现在只要几美分。 05:42 关于模型性能。 性能正在趋同,开源和闭源模型的差距在缩小,中国的DeepSeek R1在math测试的93%,只比openAI的95%差一点点,多模态模型爆发式增长,视频模型同比增长120%。 05:59 关于中国AI的发展。 中国确实在快速追赶,根据模型发布数量,中国在开源竞赛领先。DeepSeek CEO说要从跟随者变为贡献者。百度ER 4.5 turbo成本只有GPT4.5的0.2%,性能却相当。 06:21 关于市场竞争。 竞争白热化啊,OpenAI、Google、微软等每周都在密集发布新产品,开源模型势头强劲,Meta的拉AMA下载量8个月增长3.4倍,Hugging Face模型数量两年增长33倍到116万。 06:42 AI在物理世界的应用。 这个领域特别精彩,特斯拉FSD里程33个月增长100倍,微某在旧金山轿车份额20个月从0%~27%,还有AI采矿,农业激光除草,智能放牧,AI正在改变所有行业。 07:06 AI对工作的影响。 影响深远啊。72%的美国职场人士说,AI显著提升工作效率。AI职位发布量7年增长448%,非AI IT职位却下降9%。Nvidia CEO说,不会因为AI失业,但会因为用AI的人失业。 07:28 对全球互联网用户的影响呢? AI正在推动新用户增长,全球未上网的26亿人可能通过starlink等卫星互联网首次接触AI,全球互联网用户33年增长到55亿,普及率从16%上升到68%。 07:50 报告的整体结论是什么? 总结就是AI革命的速度和广度前所未有,正在重塑每个行业。从技术突破到商业应用,从工作方式到全球竞争格局,我们正站在一个新时代的起点。 高桓: 就是 Mary Meeker 她是一个非常非常资深的,互联网领域的一个观察家。然后呢他之前是在摩根士丹利,后来又去了凯鹏华盈,然后在一八年的时候。他自己又成立了,邦德资本,然后呢他从九五年开始。就发布这个互联网趋势报告,那这个互联网趋势报告在很长一段时间里面都是。科技投资者,非常非常看重的一个。年度的一个指南。 杨华: 然后呢他这个,报告的名字从互联网趋势变成了人工智能趋势。这背后是不是也反映了一个整个行业的一个重心的转移? 高桓: 对这个就是,非常,象征性的一个,转变因为。这个报告里面也提到就是自从二零二二年这个 ChatGPT 发布之后啊。美国的这个计算相关的专利的数量。是,激增,对两年就有六千份。比,九五年网景上市那个时候引发的互联网的热潮还要快。 杨华: 然后呢他这个,计算的基础设施啊从 CPU 到 GPU 这个主导权的变化,你觉得这中间有什么,关键的趋势在里面? 高桓: 就是这个报告里面讲的就是从六十年代的这个 CPU 到。大数据云计算然后再到现在的以 GPU 为主导的这种。转变,尤其是一零年之后。CPU 的这个角色就逐渐的变弱然后 GPT 出来之后就彻底引爆了这个 GPU 的这个。需求然后同时他这个模型训练的这个计算量在十五年里面。增长了超过一百亿倍。就这个规模也是远远超过了摩尔定律的这个预期的。 杨华: 然后呢这个 ChatGPT 和 Google 在用户的增长速度上面的这个对比。你觉得反映了一个什么样的现象? 高桓: 就是这个 ChatGPT 它达到三千六百五十亿年的这个搜索量。只花了两年,而 Google 用了十一年。就是快了五点五倍啊,这个就是得益于现在全球的互联网的普及。以及用户对于数字工具的熟悉,所以就是这个 AI 的这个概念被大家接受的速度也是前所未有的。 杨华: 你觉得这种,ChatGPT 这种爆发式的增长,会一直持续下去吗? 高桓: 就从这个报告里面的数据来看的话它的用户在十七个月的时候就涨到了八亿。就是增长了八倍。然后同时就是移动应用的普及速度也是非常吓人的就是它达到百分之九十的用户覆盖只花了三年。而互联网花了二十三年。所以就是这个趋势确实是非常吓人的。 杨华: 然后这个摩根大通他们这么积极的去部署 AI,你觉得这是不是代表了企业级的这种 AI 的应用?是一个非常,有潜力的方向? 高桓: 肯定是呀就是这个报告里面也提到了就是摩根大通在很多核心的领域都全面的引入了 AI 并且他们预计在两年之内。AI 带来的价值会增长百分之六十五。然后同时呢有超过百分之七十二的美国的在职成年人都认为。AI 聊天机器人提高了他们的工作质量。所以就是 AI 其实已经在。提升效率,降低成本,然后减少风险上面。都已经开始,体现出非常大的作用了,而且这还只是一个开始。 杨华: 然后就是这些 AI 公司他们这么高的估值,你觉得这是合理的吗?就是这个市场会不会有一天就? 高桓: 嗯,就这个报告里面也提到了就是这些 AI 公司比如说像 OpenAI 它的估值已经达到了三千亿美元。然后它的收入倍数是三十三倍。就是确实是非常非常高的一个,估值,但是呢这些公司它也呈现出了。高收入增长,高现金消耗,然后高估值,然后同时有大量的投资涌入。这四高的这样的一个特点。但是呢最近也出现了一些,融资困难的这样的问题,所以就是看起来市场也在慢慢的回归理性。 杨华: 然后这个 AI 模型它的训练成本越来越高,但是它的推理成本越来越低。这中间有什么,值得大家关注的行业的变化吗? 高桓: 就是训练的成本,最强大的那些大语言模型的训练成本已经成为了。人类历史上最昂贵的一些工程项目之一,就是它在八年里面涨了,约两千四百倍。但是呢,推理的成本,每代币的推理成本在两年里面下降了百分之九十九点七。所以就是这个也让,AI 的应用可以,更经济实惠的去落地。 杨华: 然后这个不同的 AI 模型之间他们的输出质量越来越接近。这是不是会改变这个行业的
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧