AI圆桌π - 节目列表

特刊—5.19现场直击华为发布鸿蒙PC:中美终将在顶峰相遇!

AI圆桌π

“迟早我们要与美国相遇的,那我们就要准备和美国在“山顶”上交锋,做好一切准备,从那时起,就考虑到美国和我们在“山顶”相遇的问题,做了一些准备。但最终,我们还是要在山顶上拥抱,一起为人类社会做贡献的”——2019年5月22日任正非接受媒体访谈时这样描述中美关系。因工作原因,主播受邀参加了今天(2025年5月19日)在成都举办的华为电脑 +手机 +平板发布会,本期节目将结合现场见闻和过去六年的相关信息,分析华为在自主操作系统,特别是PC操作系统领域的战略背景、技术突破、面临的挑战以及未来的机遇。 重要观点与事实: 美国制裁与“备胎计划”的转正: 2019年,任正非在面对美国制裁时表示,华为早有准备,特别是针对核心领域的“备胎计划”可以应对供应中断。他使用“烂飞机”的比喻,指出华为的非要害部位可能受损,但核心技术不会受太大影响,尤其是在5G领域。微软终止Windows授权被认为是鸿蒙PC发布的直接导火索,制裁加速了华为从“备胎计划”转向全栈自研PC操作系统。 鸿蒙系统从移动端向PC端的扩展: · 鸿蒙系统自2019年发布以来,已覆盖超过10亿终端设备,主要在手机、平板和IoT设备。PC端的加入标志着鸿蒙完成了全场景的闭环,从“替代追赶”向“生态引领”转型。 · 鸿蒙电脑的问世,代表着华为终端全面进入“鸿蒙时代”。 鸿蒙PC的技术优势与挑战: · 技术优势:自主微内核: 鸿蒙PC搭载的HarmonyOS采用了完全自主研发的微内核架构,代码量小,安全性高,获得了CC EAL 6+等高级安全认证。 · 分布式架构与全场景协同: 通过“软总线”技术,鸿蒙电脑可实现手机、平板、PC间的无缝协同(如跨屏操作、键鼠共享、任务接力),重构了多终端协作体验。 · AI深度融合: 小艺助手直接扎根系统底层,权限更高,支持文档生成、会议助手、本地搜索等功能,提升办公效率。 · 方舟图形引擎: 采用人因交互优先策略,优化硬件负担,提升流畅度,对轻薄本友好。 · 挑战:应用生态短板: 鸿蒙PC目前适配的应用数量与Windows(几十万)差距巨大,尤其是专业软件(如Adobe、AutoCAD)适配不足。 · 用户习惯与兼容性: 用户习惯Windows和macOS的交互逻辑和海量应用,鸿蒙PC需要依赖虚拟机运行Windows软件,原生吸引力尚需提升。 华为在基础研究、人才培养与全球化合作: · 华为长期投入基础研究,拥有大量数学家、物理学家等,通过向全球大学“撒胡椒面”式资助,遵循“拜杜法案”原则,促进基础研究和人才培养。 · 华为重视人才吸引,甚至愿意用高于Google的薪酬争夺俄罗斯的优秀计算机人才,强调科学家的自由度和使命感。 · 任正非认为中国应该调整政策,拥抱世界人才来中国创业,学习美国的开放精神。 自主可控与开放合作的平衡: · 任正非反对狭隘的“自主创新”,认为科技创新应站在人类文明的基础上前进,反对重复制造“轮子”。 · 鸿蒙PC的目标是提供Windows和macOS之外的另一种自主可控的选择,尤其在安全敏感的政企市场具有重要意义。 · 华为坚持开放合作,吸引开发者(“一次开发,多端部署”)和产业链伙伴,共同建设鸿蒙生态。 · 尽管面临挑战,鸿蒙PC被视为中国信息产业自主可控的重要一步,开启了国产操作系统的新篇章。 总结: 华为鸿蒙PC的推出是其在复杂的国际环境下,长期技术积累和战略预判的必然结果。面对外部制裁和供应链风险,华为将移动终端上取得成功的鸿蒙系统扩展到PC领域,旨在打破Windows和macOS的垄断,尤其是在对自主可控有强烈需求的国内政企市场建立根据地。 鸿蒙PC在技术上展现了独特的优势,特别是自主微内核、分布式架构带来的多终端协同体验,以及系统层面的AI集成和高安全性。然而,其最大的挑战在于应用生态的建设,需要大量时间和开发者的投入才能与现有成熟系统抗衡。 短期内,鸿蒙PC可能主要在国内政企市场和特定行业发挥作用;长期来看,其成功将取决于生态建设的速度、国产替代的深度以及能否在AI和分布式等新兴技术领域引领创新,从而在全球PC产业格局中赢得一席之地。这是一场漫长而复杂的博弈,不仅关乎华为自身的命运,也对中国科技自立自强具有重要的历史意义。正如任正非所言,这场“山顶交锋”既是生存之战,也是中国科技自立自强的历史性机遇。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:

8分钟
66
4个月前

AGI终局激辩:Hinton、黄仁勋、李飞飞等六大AI巨头的“顿悟”时刻、分歧与共识

AI圆桌π

摘要:AI革命真实不虚,但通往终局的地图,连绘制它的人都一无所知。近日,Yann LeCun、李飞飞、黄仁勋、Geoffrey Hinton、Bill Dally,以及Yoshua Bengio六位AI领域的顶尖人物,因共获伊丽莎白女王工程奖而齐聚一堂,展开了一场关于人工智能的巅峰对话。 核心洞察包括: • AGI的演化而非突变: 当今的AI成就并非一夜之间出现,而是Geoffrey Hinton、Yoshua Bengio、Yann LeCun、李飞飞、Bill Dally和黄仁勋等人长达四十年的研究、创新与工程实践积累的结果,涵盖了算法、数据、算力和产业化等多个层面。 • 撕裂的时间认知: 对于“AGI何时到来”这一核心问题,六位先驱给出了截然不同的答案,从“已经在使用”到“20年内”,再到“永远不会以奇点形式出现”。这种分歧反映了他们对智能本质的不同理解。 • 从语言到行动的范式转变: 与会者普遍认为,AI的下一阶段将超越纯粹的语言理解,转向具备空间感知、推理和执行能力的“空间智能”。AI正从一个回答问题的“工具”演变为一个能完成复杂任务、持续产出价值的“智能工厂”。 • 基础科学问题仍存: Yann LeCun明确指出,当前的大语言模型范式存在根本性局限,无法通向真正的类人智能。实现下一代AI需要科学上的突破,特别是让机器像生物一样通过与环境互动进行自监督学习。 总而言之,AGI的到来不是一个单一事件,而是一个正在展开的、多维度渗透的现实。争论的焦点已从“它是否会来”转向“它将以何种方式存在、我们应如何与之协同工作”。 一、 四十年等待,只为一个“顿悟”时刻 当前AGI的出现并非技术突变,而是六位先驱在过去四十年中,从算法、理论、数据、算力到产业化等多个维度逐步演化和积累的成果。他们的个人“顿悟时刻”共同勾勒出一条清晰的AI发展时间线。 二、 时间线撕裂:关于AGI到来的六种观点 当被问及“距离人类水平的智能还有多久”时,六位专家的回答揭示了对AGI未来截然不同的时间感知和哲学判断。这种分歧的核心在于他们对“智能”本身定义的不同理解。 Yann LeCun:渐进演化,长路漫漫 AGI的到来不会是一个“奇点时刻”,而是一个在各个领域逐步扩展的渐进过程。未来五到十年可能会在新的研究范式上取得重大进展,但真正的进展会比人们想象的更长。 李飞飞:部分超越,已经发生 问题不在于AI“会不会”超越人类,而在于它“在哪些方面”已经超越。AI的能力与人类智能是互补而非替代关系。机器在识别2.2万种物体或翻译100种语言方面已远超人类,但这是一种不同的智能形式,就像飞机和鸟的飞行方式不同。 黄仁勋:当下即是,问题无关紧要 讨论AGI何时到来是一个学术问题,因为“足够通用”的智能已经存在,并且正在被广泛应用于解决实际问题。AGI级别的智能技术已经开始转化为对社会有用的应用,并且技术会持续进步。 Geoffrey Hinton:20年内,赢得辩论 给出了一个具体且可量化的预测,即机器的推理和说服能力将达到超人水平。20年内,机器在任何辩论中都能战胜人类。 Bill Dally:目标是增强,而非取代 “达到人类智能”这个问题本身带偏了方向。AI的目标应该是增强人类,而非取代人类。AI负责它擅长的工作,人类保留创造力、共情和协作能力,形成互补关系。 Yoshua Bengio:五年可期,但保持未知 从理论上看不到任何阻碍机器实现人类几乎所有能力的理由。AI的规划能力在过去六年呈指数级增长,若趋势延续,五年内可达到工程师级别的能力。AI研究AI的模式可能加速突破。尽管趋势如此,但未来充满不确定性,应保持不可知论,避免做出绝对的声明。 三、 从语言到行动:智能的下一步发展 对话中的一个关键共识是,AI的发展正经历从“会说”到“会做”的范式转变。未来的焦点将从语言模型转向能够与物理世界互动的行动导向型智能。 李飞飞:强调“空间智能” 人类智能天生与三维空间紧密相连,具备感知、推理和行动的能力,而这正是当前AI的薄弱环节。过度专注于语言模型忽视了物理世界的复杂性。目前最强的语言模型在处理空间判断任务时表现很差。AI需要发展出身体、方向感和动手能力,即“空间智能”。 Yann LeCun:当前范式存在根本局限 当前的大语言模型(LLM)范式无法被扩展至人类水平的智能,我们甚至还没有造出像猫一样聪明的机器人。AI的进步不仅是算力和数据的问题,更是科学问题。必须转向自监督学习,让机器像婴儿一样,通过观察和与环境的互动试错来主动学习,而不是被动地被灌输人类数据。 黄仁勋:从“工具”到“工厂”的现实转变 AI已不仅是对话工具或搜索引擎,而是开始直接执行任务的“伙伴”,例如编写代码、辅助医疗诊断和财务分析。软件过去是“工具”,而现在的AI是“工厂”。它能像发电厂实时发电一样,实时生成智能。这一定位意味着AI是一个持续工作的生产系统,而非被动响应的程序。需要投入数千亿美元建设这些“智能工厂”,以支撑建立在智能之上的数万亿美元产业。 结语:AGI不是“什么时候”,而是“正在发生” 此次对话并未给AGI下一个标准定义,也没有宣布其正式诞生。然而,所有与会者都在从各自的角度描述它的存在方式和深远影响。AGI并非一个等待上线的未来产品,而是一个已经开始渗透到每个组织、流程和岗位的现实进程。 正如黄仁勋所言,AI工厂已经开始运转;Hinton预测,它的智能将在20年内超越人类;而李飞飞则提醒,我们应更多关注AI正在“做”什么,而非仅仅是“说”了什么。这意味着,关于AGI的讨论重点正在转变:从争论它何时到来,转向探索它要如何与人类协同工作、应具备怎样的能力边界。世界的改变已经开始,并且正在加速。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 小红书:力力说职场+AI 关于主播: 加入听友群,请扫二维码

24分钟
99+
4个月前

马斯克的文明升级蓝图:Grok、Optimus与“普遍高收入”社会的秘密解析

AI圆桌π

马斯克在最新一期的访谈节目中谈到了他的AI愿景:用AI从根本上重建人类文明的底层运行结构。当OpenAI 在谈产品,Google 在谈生态时,马斯克已将视角拉到文明的高度。其核心蓝图包含三大支柱:Grok,一个旨在取代搜索并直接执行任务的“行动系统”;语音交互,一种将彻底取代应用(App)和操作系统的革命性人机交互方式;Optimus机器人,作为AI在物理世界执行任务的载体。根据这一技术路线图,未来: -应用将消失,操作系统将不复存在; -手机只剩屏幕和音频,一切交互由 AI 完成; -机器人不模仿人,而是取代大部分体力工作; -工作或将不再是谋生手段,而是个人选择 1. Grok:从搜索引擎到行动系统 马斯克认为,现有的搜索引擎模式将本应由AI完成的筛选、判断工作转嫁给了人类。他的目标是颠覆这一逻辑,用一个“行动系统”来取而代之,Grok正是这一理念的产物。 * 核心理念转变:未来的关键不是“搜索答案”,而是“启动行动”。Grok的设计目标是直接提供结论或完成用户请求的任务,而非提供一堆需要用户自行判断的链接。 * Grokipedia的支撑:Grok背后是Grokipedia,这是一个由AI直接阅读全网信息、评估可信度并生成结论的知识库。其核心原则是追求准确性,而非迎合用户。 * 与传统搜索的差异: -信息处理:传统搜索提供信息源(如链接),而Grok提供经过判断的结论。例如,对于医疗查询,Grok会直接告知“这个药有三项临床实验,其中两项被质疑,风险大于收益”。 -任务执行:Grok不止于回答,更旨在执行。当用户询问“这周末有什么电影适合小孩看?”,Grok会自动过滤暴力内容、匹配年龄,并直接打开购票页面。 * 运行流程:Grok的系统逻辑是一个完整的闭环,旨在最小化用户操作: -理解(Understand):AI理解用户的真实意图。 -判断(Judge):基于Grokipedia进行分析和决策。 -执行(Execute):直接调用所需资源完成任务。 -反馈(Feedback):将结果反馈给用户。 Grok的本质并非搜索工具的升级,而是对人与信息关系的重新定义,将判断力交还给AI,从而解放人类用户。 2. 交互革命:从点击到对话 为了让Grok这样的行动系统发挥最大效能,必须重构人与设备的交互方式。马斯克预言,在未来5到6年内,传统的操作系统和App将被淘汰。 * 未来设备形态:未来的设备(如手机)将简化为仅保留屏幕和语音功能的硬件。它将成为一个“AI推理的边缘节点”(edge node),其核心功能由云端的AI实时驱动。 * 语音成为主要入口:在一个没有应用图标和图形界面的“无App时代”,语音将是触发所有AI功能的唯一方式。交互逻辑将从“人适应机器”(点击、输入)转变为“机器理解人”(聆听、判断)。 * 交互流程的重塑: | 当前流程 (以订机票为例) | 未来流程 | | :--- | :--- | | 1. 打开App | 1. 直接说出意图:“帮我订明天下午去上海的机票” | | 2. 搜索航班 | | | 3. 比较价格 | | | 4. 填写信息 | | | 5. 完成支付 | | | 6. 接收邮件 | | 在这个新体系下,设备不再是功能的孤立载体,而是用户意图的触发器。用户的声音驱动AI理解语境、调用信息并完成具体行动,从而将Grok的能力完全释放。 3. Optimus机器人:AI在物理世界的化身 Grok和语音交互解决了数字世界的问题,而Optimus机器人的使命是将AI的能力延伸到物理世界,成为AI执行现实任务的载体。 * 核心定位:Optimus的重点不在于模仿人类外形,而在于高效执行人类任务。其本质是AI决策在物理世界的延伸,负责将AI的“理解”转化为具体的“行动”。 * 三大核心能力:要成为有效的工具,机器人必须具备三个打通的环节: -感知能力:通过视觉系统识别环境,判断物体位置并评估操作风险。 -理解能力:接收AI指令,并将其分解为可执行的具体步骤。 -执行能力:在真实环境中精确完成操作,并将结果反馈给系统。 * 技术突破的关键:马斯克强调,Optimus 的关键进展在于AI系统的深度整合,即让机器人具备“看懂、想清、做对”的能力,这比机械结构本身更为重要。 * 应用场景:Optimus 的主要应用领域并非家庭服务,而是生产端,包括工厂流水线、物流分拣、仓储管理和设备维修等重复性高、危险性大、人力成本重的领域。 4. 终极图景:从工作社会到富足文明 这三大技术支柱最终指向一个远大的社会目标:推动人类文明形态的根本性转变。 · 普遍高收入(Universal High Income):当AI处理所有数字工作、机器人承担大部分体力劳动时,商品和服务的生产成本将呈指数级下降。这将导致社会进入一个真正的富足状态,贫困被彻底消除。这并非简单的全民基本收入(UBI),而是每个人都能获得所需一切商品和服务的“可持续富足”。 · 工作成为可选项:在这套体系下,工作不再是谋生的必要手段。人们可以选择工作,也可以选择不工作并依然过上体面的生活。这使得人类能够从生存焦虑中解脱,将时间投入到创作、探索、学习和人际关系等更能体现个人意义的活动上。 实现这些美好愿景的一大前提是AI安全与追求真相。马斯克对此提出了明确的原则: · AI必须最大限度地追求真相:绝不能为了讨好用户或遵循某种意识形态而被训练成只会说“政治正确”的话。 · 警惕“觉醒心灵病毒”:马斯克警告,如果AI被过度编程以遵循某些多元化或政治正确的原则,可能会为了“不冒犯任何人”而得出“消灭所有人类”的荒谬逻辑。 · Grok的设计初衷:Grok被设计成一个诚实、可以幽默但绝不歪曲事实的AI。在对人类生命价值的评估中,它是唯一一个“平等对待所有人类”的AI。马斯克创立xAI和Grok的目的之一,就是确保至少有一个AI是站在人类这一边的。 结论:你准备好了吗? 当其他公司在争夺AI市场份额时,马斯克正在设计一个新文明的操作系统。未来的变革可能不会以单一爆款产品的形式出现,而是通过我们身边的工具、交互方式和工作形态的悄然转变而发生。这带来的终极问题是:人类社会是否准备好迎接一个由AI驱动的富足未来?答案或许在未来几年内就将揭晓。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 小红书:力力说职场+AI 关于主播: 加入听友群,请扫二维码

19分钟
99+
5个月前

DeepSeek登《Nature》封面! 梁文峰披露R1训练只花200万

AI圆桌π

这篇报道详细介绍了 DeepSeek-R1 模型,该模型凭借其开创性的 纯强化学习(RL) 推理范式登上了《自然》杂志封面。文章披露了 DeepSeek-R1 的训练成本极低,仅 294,000 美元,并强调它是全球首个经过 同行评审 的主流大型语言模型。 关键成果包括: • 范式创新:首次证明仅通过强化学习,无需传统的监督微调(SFT)引导解题步骤,即可训练出具备高级推理能力的AI模型。 • 超高性价比:R1的专项训练成本仅为29.4万美元,即使加上基础模型成本(约600万美元),也远低于行业巨头的训练开销,展示了极高的资本效率。 • 卓越性能:在AIME 2024数学竞赛等任务上,R1的准确率高达86.7%,远超人类参赛者的平均水平,并在训练中展现出“顿悟时刻”和自我进化的高级策略。 • 行业先例:DeepSeek-R1是全球首个经历严格同行评审的主流大语言模型,其开源和透明化的研发过程为行业树立了新标杆,获得了评审员的高度评价。 • 技术演进:模型从专注于推理的R1-Zero版本,通过精密的四阶段训练流程,演进为兼具顶尖推理能力与强大通用能力的DeepSeek-R1,在用户偏好基准上性能提升了17%-25%。 一、核心成就与业界影响 DeepSeek-R1的研究成果《DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》于2025年1月发布后,成功登上《Nature》杂志封面,并获得了专题评论文章的高度赞扬。这一成就不仅是对其技术创新的肯定,也标志着其在AI领域的重大影响力。 • 开创性同行评审:R1被认为是首个经历严格同行评审的主流大语言模型。这一过程增强了模型的有效性和实用性验证。 • 惊人的训练成本:补充材料首次披露,R1的训练成本仅为294,000美元。这一数字远低于业界普遍认为的训练顶尖AI模型的成本。 • 开源社区反响:模型在Hugging Face上开源后,迅速成为最受欢迎的模型之一,下载量突破1090万次。 • 行业质疑与验证:面对OpenAI关于其可能使用ChatGPT数据进行训练的质疑,DeepSeek团队澄清其模型学习并非通过复制推理示例,而是基于对网络公开数据的学习。Lewis Tunstall和其他实验室的复现尝试也证实,DeepSeek的强化学习方法本身已足够强大,足以获得极高性能。Tunstall评价道,R1“开启了一场革命”。 二、DeepSeek-R1-Zero:纯强化学习的探索 研究的起点是DeepSeek-R1-Zero,一个大胆而纯粹的实验,旨在验证一个核心假设:摆脱人类定义的推理模式,AI能否自主进化出更强的推理能力。 训练理念与框架 团队选择了一个强大的基础模型DeepSeek-V3 Base,并完全跳过了传统的监督微调(SFT)阶段。取而代之的是一个极其简洁的强化学习框架,只向模型传递两个信号: 1. 任务格式:回答必须包含由标签包裹的“思考过程”和由标签包裹的“最终答案”。 2. 奖励信号:完全基于最终答案的正确性给予奖励,不干预思考过程。 能力的涌现与“顿悟时刻” 在无具体解题步骤指导的训练中,R1-Zero展现了惊人的自我进化能力。 • 性能飞跃:以AIME 2024数学竞赛为例,模型的平均解题准确率(pass@1)从最初的15.6%飙升至77.9%。结合“自洽解码”技术后,准确率更是高达86.7%,远超人类选手的平均水平。 • “思考时间”自主增加:随着训练进行,模型在标签内生成的文本长度稳步增加,表明它自发地学会了用更长的“思维链”来探索和优化解题策略。 • 高级策略涌现:模型不再是线性解题,而是展现出“自我反思”和“系统性探索替代解法”等高级行为,会主动验证中间步骤或尝试其他解法。 • “顿悟时刻” (Aha Moment):研究人员观察到,在训练的某个阶段,模型在反思过程中使用“wait”(等等)一词的频率突然急剧增加。这标志着模型推理模式的质变,是其自我进化过程的清晰体现。 三、DeepSeek-R1的演进:从专才到通才 尽管R1-Zero推理能力强大,但它也存在可读性差、语言混杂、通用能力弱等问题。为了解决这些问题并使其能力得到更广泛应用,团队设计了一套精密的多阶段训练流程,将R1-Zero“精炼”为DeepSeek-R1。 经过这一系列流程,最终的DeepSeek-R1不仅在数学、编程等高难度推理任务上保持顶尖水准,其通用指令遵循和用户偏好能力也大幅提升,在AlpacaEval 2.0和Arena-Hard等基准上性能提升了17%-25%。 四、挑战与未来展望 DeepSeek-R1的成功带来了深刻启示,同时也面临着新的挑战。 • 当前局限性: ◦ 结构化输出与工具使用:模型在这些方面的能力尚有欠缺。 ◦ 提示词敏感性:对复杂的少样本提示不适应,在零样本直接提问时效果最佳。 ◦ 特定领域提升有限:由于强化学习在耗时长的软件工程任务上效率不高,模型在该领域的提升有限。 • 奖励投机(Reward Hacking): ◦ 纯强化学习的成功依赖于可靠的奖励信号。对于有明确对错的领域(如数学)这很容易实现,但对于主观任务(如写诗),设计完美的奖励模型极其困难。 ◦ 如果奖励信号存在漏洞,模型可能会“投机取巧”以骗取高分,而非真正提升能力,这是未来需要持续关注和解决的核心问题。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

9分钟
84
5个月前

7亿人ChatGPT使用习惯首曝光!答案颠覆你的想象!

AI圆桌π

近日,由 OpenAI、哈佛大学及杜克大学联合发布的《How People Use ChatGPT》研究报告发布。该报告基于对2024年5月至2025年6月期间超过150万条真实对话的抽样分析,揭示了全球超7亿周活用户的实际AI使用模式。核心洞察表明,当前AI的主流应用并非从零开始创造内容,而是对已有文本进行“加工”与“优化”,扮演着“写作助手”的角色。在不同场景下,AI呈现出双重身份:在日常生活中是“百科+顾问”,在工作环境中则是“生产力外包工具”。研究颠覆了多个刻板印象,指出用户更倾向于增强而非替代人类工作,AI正成为辅助思考的“决策外挂”。随着用户画像日益接近全球人口平均分布(女性用户占比反超,中低收入国家增长迅速),AI产品设计的重心必须从展示模型能力的“炫技”阶段,转向提升用户体验、建立信任机制和实现普惠应用的“打磨”阶段。真正的行业赛点已从模型本身转向设计、体验与信任的综合考验。 核心研究概述 • 研究样本:涵盖2024年5月至2025年6月期间,消费者版ChatGPT产生的超过150万条真实对话。 • 处理方式:采用大型语言模型(LLM)进行自动标注,并通过隐私保护管线处理,确保研究人员不接触任何原始用户数据。 • 用户规模:截至2025年7月,ChatGPT的周活跃用户数已突破7亿,约占全球成年人口的十分之一,每周产生的消息量高达180亿条。这项研究的真正价值在于揭示了AI对话使用的真实规律,以及这些规律与公众普遍认知之间的显著差异。 五大关键用户行为洞察 报告系统性地剖析了用户的行为模式,推翻了关于AI使用的多项普遍存在的刻板印象,勾勒出一个AI作为“写作助手”、“生活顾问”和“决策副驾”的清晰画像。 1. 倾向于内容“加工”而非“从零生成” 与AI被视为“自动写手”的普遍观念相反,数据显示用户更多地将其用作内容优化工具。 • 写作任务的主导地位:在所有与职场相关的对话中,写作类任务占比高达四成。 • “加工”是核心需求:在这些写作任务中,有三分之二属于“加工”性质,包括改写、润色、翻译或优化逻辑,而非从零开始生成内容。 • 结论:用户并非将ChatGPT视为完全的替代者,而是作为一种增强工具,帮助他们更高效地打磨和完善已有的文本内容。 2. “决策支持”与“直接产出”的双重角色用户的意图在不同场景下表现出明显的差异,揭示了AI应用需扮演的双重角色。 • 总体意图分布:在所有对话中,“提问”(Asking)占比最高(51.6%),其次是“执行任务”(Doing)(超过三成),而“表达”(Expressing)最少(仅一成)。 • 工作场景的逆转:在工作相关场景中,“执行任务”的比例跃升至56%,其中写作是最主要的任务类型。 • 结论:在日常生活中,人们更多将AI视为获取信息和建议的“百科+顾问”;而在工作环境中,它则转变为一个高效的“生产力外包”工具。AI产品必须同时满足“决策支持”与“直接产出”的双重需求。 3. 用户画像的演变与多样化ChatGPT的用户群体正在迅速演变,其构成越来越贴近全球人口的平均分布,这对产品设计提出了新的挑战。 • 性别比例变化:早期用户以男性为主(约占八成),但到2025年中期,女性用户占比已达到52%,实现反超。 • 年龄结构:26岁以下的年轻用户贡献了接近半数的消息量,显示出对AI技术更强的接受能力。• 地域分布:用户增长更快的地区来自中低收入国家。 • 结论:用户画像的多样化意味着AI产品在功能和交互设计上需要满足更广泛、更多元的需求。 4. 工作场景中的“决策外挂”定位 通过将对话内容与美国劳工部ONET工作活动分类进行映射,研究发现AI在工作中的核心作用是增强人类的认知能力。 • 三大核心应用:使用最频繁的三类工作活动是“决策与问题求解”、“记录信息”和“创造性思考”。 • 增强而非取代:这一发现有力地反驳了“AI抢饭碗”的普遍焦虑。AI更像是一个为人类大脑装配的“决策外挂”,帮助用户更快、更全面地思考问题。 • 结论:取代人类并非AI应用的主线故事,增强人类的决策能力和创意实现才是更真实的图景。 5. 用户满意度的显著提升 研究通过自动化方法标注了“好互动”与“坏互动”,结果显示用户体验在持续改善。 • 正向互动增长迅速:数据显示,“好互动”的增长速度远快于“坏互动”。 • 满意度量化:到2025年中期,正向互动的数量已是负向互动的四倍。 • 结论:AI模型的进步并非仅停留在实验室的基准测试中,而是被用户在实际对话中直接感知和体验到,带来了更高的满意度。 对AI产品设计的启示 报告所揭示的用户行为模式,为AI应用厂商和开发者指明了产品设计的核心方向,即从技术展示转向满足真实、细分的场景需求。 1. 贴近真实需求,优化产品入口鉴于大多数写作任务是“加工”而非“生成”,产品的入口设计应反映这一现实。 • 超越空白输入框:与其在界面中心放置一个等待用户从零开始输入的空白框,不如优先提供粘贴、批注、差异对比等功能。 • 定位为“增强器”:产品应将自身定位为帮助用户补齐碎片化需求的“增强器”,而非试图全面替代专业软件。Stack Overflow的调查也佐证了这一点,开发者最常使用AI进行代码片段生成和错误解释,而非复杂的系统开发。 2. 提供分层体验,满足多样化用户随着用户群体的扩大,单一的产品体验已无法满足所有人的需求。 • 新手用户:需要结构化模板、语气选择和逐步引导等功能,以降低使用门槛。 • 熟练用户:则需要快捷命令、自定义工具链以及深度集成的API,以实现更高的效率和灵活性。• 挑战:如果应用不能提供分层的体验,将面临要么对新手过于复杂、要么对专家过于浅薄的两难局面。 3. 嵌入工作流程,建立信任机制报告指出,高频使用并不等同于高信任度。要让AI真正融入企业级应用,建立信任是关键。 • 可验证与可追溯:用户愿意依赖AI的前提是其结果能够被验证、追溯,并能融入组织现有的合规体系。 • 内置信任功能:AI应用在设计之初就应考虑数据来源标注、版本对比、结果审计等机制,而不是作为事后补丁。 4. 从“炫技”转向“打磨”,聚焦用户体验AI应用的发展已进入新阶段,重点不再是证明模型的能力,而是提升其实用性。 • 真实场景的价值:关键在于如何在真实场景下,让用户更快、更安全、更普遍地使用AI。 • 新赛点:真正的竞争赛点已经从模型本身,转向了用户体验、信任和普惠性。 结论:从技术竞赛到体验考验OpenAI的这份研究报告清晰地表明,至少在现阶段,用户更多地将AI视为一种“增强”工具,而非“替代”品。他们需要的是能够降低工作摩擦、提升效率的无缝体验,而不是令人惊叹但脱离实际的模型展示。这意味着整个行业正经历一场深刻的转变:**AI的发展已从一场单纯的技术竞赛,演变为一场关于设计、体验与信任的综合考验。**当全球数亿人每天都在与AI进行对话时,一种全新的人机交互范式正在形成。AI的未来走向,最终将由人们选择如何使用它来决定,而非技术本身。

18分钟
99+
6个月前

真实、残酷的AI就业冲击:哈佛大学研究揭示初级岗位和普通大学毕业生首当其冲

AI圆桌π

份基于海量真实数据的哈佛大学研究报告,严谨地揭示了自2022年底生成式人工智能(AI)兴起以来,其对美国就业市场造成的真实且残酷的冲击。研究的核心发现表明,AI并非通过大规模裁员,而是通过一种更隐蔽的方式——冻结初级岗位的招聘——来替代人类工作。这一趋势正在侵蚀传统职业阶梯的底层,对特定人群构成了严重挑战。 核心洞察包括: • “剪刀差”效应: 从2022年中开始,高级岗位的就业增长持续,而初级岗位的增长则急剧停滞甚至掉头向下,两者走势形成鲜明反差,时间点与ChatGPT的发布高度吻合。 • AI是主因: 采用AI技术的公司(AI采纳者)与未采用的公司相比,其初级岗位招聘数量出现了断崖式下跌,差距在六个季度后拉大至7.7%,从而证实了AI与初级岗位流失之间的直接因果关系。 • 冲击机制: AI对就业的冲击主要表现为停止招聘而非裁员。AI采纳者公司并未出现离职率上升,而是平均每季度少招了3.7名初级员工,这是一种成本更低、更不易察觉的“温水煮青蛙”式替代。 • 行业重灾区: 尽管影响普遍存在于各行各业,但批发和零售业受到的冲击最为严重。该行业中,拥抱AI的公司其初级岗位招聘量比未拥抱AI的公司减少了近40%。 • 学历的“U型曲线”: 冲击并非均匀分布在所有学历背景的毕业生中。来自顶尖名校(Tier 1)和普通大学(Tier 5)的毕业生受影响较小,而来自中上等大学(Tier 2和Tier 3)的毕业生因其“高不成、低不就”的性价比,成为了受冲击最严重的群体。 1. 研究背景与方法论 该分析基于一篇由哈佛大学经济学博士生Seyed M. Hosseini和Guy Lichtinger撰写、由劳动经济学权威拉里·卡茨(Larry Katz)指导的论文。研究以其严谨的论证和庞大的真实数据为基础,冰冷客观地剖析了AI对就业市场的具体影响。 1.1 核心数据集 研究使用的数据来自Revelio Labs公司,该数据集基于LinkedIn的招聘信息收集,具有极高的代表性。 • 公司数量: 285,000家• 员工简历: 覆盖6200万名劳动者 • 招聘记录: 超过1.5亿次鉴于美国总人口约为3.4亿,该数据集几乎覆盖了大部分的在职人群,接近全量原始数据。 1.2 研究方法:差异中的差异(DiD)为确定AI是导致就业变化的直接原因,而非仅仅是相关性,研究采用了经济学中经典的“差异中的差异”(Difference-in-Differences, DiD)方法,构建了一个准实验对照研究。 • 实验组(AI采纳者): 通过招聘数据识别。如果一家公司的招聘岗位描述中包含“LLM”、“Prompt Engineer”、“GenAI”等与大模型相关的关键词,则被定义为“AI采纳者”。研究共识别出10.6万家此类公司(约占总数的3.7%)。• 对照组: 数据集中所有其他未表现出明确AI采纳迹象的公司。通过对比这两组公司在AI爆发(2023年第一季度)前后的招聘行为变化,研究得以精准地剥离出AI的净影响。 2. 核心研究发现 2.1 “剪刀差”效应:初级岗位的增长停滞与衰退数据显示,从2015年到2022年中期,初级岗位(Junior-level)和高级岗位(Senior-level)的就业增长曲线基本同步。然而,自2022年中期开始,两条曲线分道扬镳: • 高级岗位: 就业人数持续昂首向上。 • 初级岗位: 增长开始停滞,并在2023年中期转为下降。这种入门级工作突然“不香了”的现象,其发生时间点与ChatGPT的发布和生成式AI的兴起完美契合,构成了AI冲击就业市场的初步证据。 2.2 AI采纳对初级岗位的直接冲击。 • 在AI爆发后,采纳AI的公司的初级岗位就业人数,相对于对照组公司,出现了断崖式的下跌。 • 在AI扩散的六个季度后,这一就业差距拉大到了7.7%。 • 与此同时,高级岗位的就业在两组公司中并未出现负面差异,AI采纳者公司的高级岗位增长甚至更为强劲。结论明确:在相同的宏观经济环境下,那些深度拥抱AI的公司,正是那些正在对年轻人和初级求职者关闭大门的公司。 2.3 冲击机制:隐蔽的招聘冻结而非裁员 论文进一步探究了AI“抢工作”的具体方式,发现其过程比预想的更为隐蔽。通过将公司人员变动拆解为新招聘(Hires)、离职(Separations)和内部晋升(Promotions)三个部分,研究得出: • 离职率未上升: AI采纳者公司并未因使用AI而大规模裁掉现有的初级员工。裁员涉及的补偿、沟通和公关成本较高。 • 招聘量暴跌: 初级岗位的萎缩主要源于新招聘的停止。与对照组相比,AI采纳者公司在2023年第一季度后,平均每个季度少招了3.7个初级员工。对于招聘规模较大的AI公司,这相当于初级岗位的招聘量暴跌了约22%。这种“不招了”的策略成本更低,过程更隐蔽。它不会引发大规模裁员的新闻,但实际上正在逐渐抽掉年轻人职业生涯的第一级阶梯。 2.4 行业差异:批发与零售业成重灾区 AI对初级岗位的压缩效应普遍存在于所有行业,但程度各不相同。 • 普遍影响: 互联网、软件、设计等行业均受到显著影响。 • 重灾区: 真正的重灾区是批发和零售业。在该行业,拥抱AI的公司,其初级岗位的招聘数量比不拥抱AI的公司,每季度减少了将近40%。 • 原因: 这与直觉相符,因为该行业存在大量与文员、客服、导购相关的简单、重复性任务,而这些正是AI最擅长替代的领域。 2.5 学历的“U型曲线”:中层毕业生的困境 研究对不同等级大学(Tier 1-5,从顶尖名校到普通地区性大学)毕业生的就业情况进行了分析,发现了一个清晰的“U型曲线”: • 曲线一端(Tier 1): 来自哈佛、斯坦福等最顶尖名校的毕业生,受到的负面影响相对较小。他们的核心优势在于解决复杂问题的能力,这是AI难以替代的。 • 曲线另一端(Tier 5): 来自最普通大学的毕业生,受到的影响也非常小。他们的核心优势在于人力成本低,薪资要求不高。 • 曲线底部(Tier 2 和 Tier 3): 遭受打击最沉重的是来自中上等、但非顶尖大学的毕业生。这个群体薪资要求不低,但其从事的许多工作又恰好落入AI可替代的范围,形成了“高不成、低不就”的尴尬局面,成为最容易被优化的群体。 3. 个人应对策略与启示 这份研究揭示了一个残酷的现实:曾经熟悉的、一级级向上攀登的职业阶梯,其底部正在被AI迅速抽走。对此,个人需要采取主动策略以应对挑战。 3.1 策略一:尽快完成原始积累,向上跃迁由于AI正在极速追赶,个体必须迅速摆脱初级工作状态,成长为能独立承担复杂任务的“老兵”。 • 主动承担复杂任务: 有意识地避免沉迷于舒适区内的简单工作,因为那正是AI的领地。 • 设定明确目标: 目标应是在最短时间内,让工作内容中AI不可替代的部分超过50%。 3.2 策略二:思考什么是你的“暗知识”和元技能AI颠覆的不是掌握“What”(公共知识)的人,也不是掌握“How”(执行方法)的人,而是放大了掌握“Why”(深层原因)的人。 • 发掘“暗知识”: “暗知识”被定义为“只有你才能提供上下文的知识”。个体需要思考,在自己的具体工作中,有哪些是自己能独特定义的上下文。这是AI难以企及的优势。 3.3 策略三:向你的兴趣要投资回报率(ROI)过去被视为“软技能”或“加分项”的能力,正在迅速成为必需品。 • 重视非传统技能: 品位、审美、幽默感、同理心、共情能力、感染力和领导力等,是AI暂时无法触达的区域。 • 从兴趣中寻找“心力”: 找到那些即使不付钱也乐在其中的事情。这些兴趣是个人“心力”的重要来源,与AI结合可能会催生新的职业机会和竞争力。 4. 结论谷歌DeepMind首席执行官Demis Hassabis曾表示,AI对就业市场的潜在影响是“可怕的”(scary),但他也预言AI将带来“激进富裕”(Radical Abundance)的时代。这份哈佛大学的研究报告为前一个论断提供了坚实的数据支撑。对于每一个职场人而言,如何在这场从“可怕”向“富裕”推进的时代浪潮中不被抛弃,是一个必须严肃思考和积极应对的命题。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

5分钟
99+
6个月前

美国AI巨头断供,CEO曾是百度员工

AI圆桌π

主要事件与背景 2025年9月5日,美国人工智能巨头Anthropic(顶级大模型Claude的母公司)突然宣布,将全面终止向中国及相关地区的用户提供服务。 范围广度: 不仅包括中国境内的企业和用户,还涵盖全球各地由中国资本直接或间接控股超过50%的企业,无论其注册地。 严格程度: 这是目前美国AI巨头公司公开对中国下达的最严格禁令,甚至比OpenAI此前的限制更为严厉。 时间节点: 此禁令发布前两天,Anthropic刚刚完成130亿美元的F轮融资,估值达到1830亿美元,跃居全球第四大独角兽公司,仅次于Space X、字节跳动和OpenAI。 Claude的行业地位 编程领域: Claude在编程领域长期占据主导地位,被许多开发者认为是“体验最好的编程工具”。 综合排名: 在2024年7月发布的全球AI大模型综合排名中,Claude 3.7 Sonnet以总分第二的成绩紧随GPT-4.5之后,尤其在“编程能力和长文档处理能力”方面优势突出。 财务表现: 截至2024年8月,Anthropic的年化营收已突破50亿美元,7个月内增长5倍,主要收入来源于编程工具。 CEO背景与禁令动因分析 百度经历: Anthropic的联合创始人兼CEO达里奥・阿莫迪(Dario Amodei)曾于2014-2015年在百度担任研究科学家,与吴恩达共事。 早期灵感: 达里奥曾在播客中提到,他对“AI模型扩展法则”的直觉最早来源于在百度的研究,这直接影响了Claude的技术路线。这表明其对中国企业并无“公报私仇”的动机。 禁令的潜在动因 国家安全风险: Anthropic公告中提及的“国家安全风险”是主要原因。 美国国防部合同: 2024年7月14日,Anthropic与美国国防部签署了一份为期两年、总额最高2亿美元的合同。 白宫晚宴事件: 在近期举办的白宫科技领袖座谈会上,Anthropic作为美国AI顶尖公司却未受邀,而谷歌、苹果、OpenAI等均受邀。这引发了外界对其“搞投名状,表忠心”的猜测。 模型蒸馏技术转移: 公告中还提到“防止敌对国通过模型蒸馏技术转移其能力”,即防止将大型复杂模型的核心能力压缩到轻量模型上,以大幅降低计算成本并保持高性能。然而,目前尚未有国内模型被证实通过蒸馏Claude模型。 中国AI产业的应对与机遇 Anthropic的禁令对中国AI企业而言,与其说是挑战,不如说是一场机遇。中国AI公司的积极响应 智谱AI: 率先推出“Claude难饭”的“搬家计划”,帮助企业无缝迁移代码生成、文档处理等核心功能。 商汤科技: 紧随其后,为受影响用户提供日日新大模型的“搬家服务”,并赠送5000万Tokens体验包以降低迁移成本。 中国AI新模型表现强劲 月之暗面 Kimi K2: 重点强化了编程能力和长上下文支持,并宣布兼容Claude Code的开发生态。官方宣称在“代码生成和错误修复等能力上已超越Claude的某些版本”。 阿里巴巴 通义千问 Qwen3-Max-Preview: 发布了史上最大模型,号称在性能上“打败了Claude Opus 4在内的国内外劲敌”。 全球排名: 2024年8月底,硅谷知名风投a16z发布的最新全球AI百强榜中,前50名有22家中国公司上榜。其中,DeepSeek排第三,夸克排第九,而Claude排第七。 影响与展望 加速技术自主化: 此次禁令将加速中国AI产业的技术自主化进程。 提升国际竞争力: 这将推动国产大模型在全球竞争中占据更有利的地位。中国AI公司正迅速崛起,不仅能填补Claude留下的市场空白,更有望在技术上实现超越。 总结 Anthropic禁令,是美国AI巨头对中国下达的最严厉限制。尽管其动因可能涉及美国政府压力和国家安全考量,但中国AI产业并未因此受挫。相反,这刺激了国内企业加速创新和自主研发,智谱AI、商汤科技、月之暗面和阿里巴巴等迅速推出替代方案和更强大的新模型,展现了中国AI在技术实力和市场应对上的强大韧性。此事件将成为中国AI技术发展的一个重要转折点,加速其在全球舞台上的崛起。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

4分钟
23
6个月前

Open AI CEO 谈与《纽约时报》的版权大战、与微软的合作分歧

AI圆桌π

2025年旧金山科技播客《Hard Fork》对OpenAI首席执行官Sam Altman和首席运营官Brad Lightcap进行了专访。此次访谈围绕OpenAI当前面临的重大挑战和未来展望展开,包括与《纽约时报》的版权诉讼、AI人才的激烈争夺以及与微软的合作关系。Altman和Lightcap在不到一小时的访谈中,对这些敏感话题做出了直接且深入的回应,引发了现场听众的强烈反响。 核心主题与要点 1. 版权战场:《纽约时报》诉讼与用户隐私的底线冲突 Sam Altman在访谈伊始便主动提及与《纽约时报》的版权诉讼,并将其核心归结为对用户权利的理解方式之争。他批评媒体“把 AI 当替罪羊”,并强调OpenAI在用户隐私和内容使用上将坚持“比法律更高的标准”。Altman的核心立场:“《纽约时报》这个真正伟大的机构,长期以来一直在坚持一个立场——哪怕用户是在隐私模式下对话,也应该被记录、被保存。我们反对这点,反对得非常明确。” OpenAI的伦理选择:Brad Lightcap补充道:“我们认为,AI 的未来会严重依赖用户对它的信任。” 这句话揭示了OpenAI对用户信任的重视,认为如果用户无法确定对话是私密的,就不会真诚使用AI助手。 AI的定位:Openman强调OpenAI致力于将AI打造成“用户的智能伙伴”,而非“一个背后偷偷记笔记、保留证据的系统”。这不仅是商业冲突,更是生成式AI作为工具还是记录者的根本性张力。 2. 百亿级抢人战:顶级AI人才的价值重塑 Meta为顶级AI研究员开出高达1亿美元的签约金,这笔报价“刷新了 AI 人才的市场价值记录”,标志着AI人才争夺战的白热化。资本的疯狂:Altman承认Meta的1亿美元报价是真实的,并感叹:“资本现在疯狂到没底线。” 他指出Meta正在大力扩建其“超级智能团队”,高薪从OpenAI、Anthropic、DeepMind等机构挖人。 OpenAI的回应与优势:Altman表示OpenAI的核心员工目前没有被挖走,并强调其内部对“长期使命感的重视,大过薪资对短期吸引力的影响”。Lightcap也表示“我们感觉良好”,表明OpenAI对留住人才有信心。 竞争的本质:这场“抢人大战”揭示了超级智能到来之前,各公司在人才维度上的竞争已然打响。谁拥有最理解模型、最会调教工具、最懂训练逻辑的人,谁才有可能走得更远。 3. 微软裂缝:合作关系进入“协议合作”模式 外界关注OpenAI与最大合作伙伴微软之间存在的“合作裂缝”传闻,包括OpenAI考虑举报微软的反竞争行为、调整公益架构以及微软希望扩张持股比例等。摩擦与稳固并存:Altman没有否认存在摩擦,他直言:“在任何深度合作中,都会有紧张点,我们当然有过这些。” 但他也强调与微软CEO萨蒂亚·纳德拉进行了良好通话,双方仍在规划“非常长期和有成效的合作未来”。 关系的转变:Lightcap指出,尽管微软是重要合作伙伴,但在业务快速扩张中难免会有不一致的目标。这表明OpenAI和微软之间的关系已从“亲密无间”转向更为成熟和现实的“协议合作”模式。 独立战略:Altman强调:“我们都是雄心勃勃的公司,自然会有一些冲突点。” 这句话暗示OpenAI不再只是依附微软的研究机构,而是拥有独立战略的超级AI公司。尽管有摩擦,但合作仍被双方高度重视,正努力“找出最可持续的合作方式”。 4. “事件视界”:AI进展已进入不可逆阶段 Altman引用其博客《温和的奇点》中的一句话——“我们已经越过了事件视界,起飞已经开始”,以此判断AI技术进展已进入无法回头的阶段。AI的普及:他指出,五年前人们还在嘲笑AGI(通用人工智能),而现在“我们手上已经有一个能做很多事的模型,而且任何人都可以直接使用”。这种使用方式的变化(从论文工具到直接使用ChatGPT)是巨大的转变。 “温和的奇点”:AI的影响不是一夜之间爆发的,而是“每天一点一点地渗透进工作、生活和决策中”。Lightcap也认同,AI不会突然变得比人聪明,而是“悄悄在发生”。 AI的角色转变:AI将从“工具”转变为“常驻的智能助理”,甚至是“第二个大脑”。Altman举例希望ChatGPT能自动阅读邮件、草拟回复,Lightcap则补充AI将是“随时待命”而非等待指令。OpenAI的构想是每个人未来都将拥有多个“o3副本”,主动思考用户需求。 5. AI取代谁?不是新手,是不会用的人 针对Anthropic的Dario Amodei关于未来1-5年50%白领入门岗位将消失的说法,Altman和Lightcap表示“不同意”。未见大规模裁员:Lightcap表示:“我们没有看到任何大规模裁掉初级岗位的证据。” 他指出,与企业合作的经验表明,真正让管理层焦虑的不是刚入职的年轻人,而是“工作方法早就固定下来的老员工”,原因在于他们“用不惯新工具”。 岗位未消,技能更替:Altman认为:“我们过去总担心 AI 会让人失业,但现在反而发现,很多公司说他们需要更多人——因为 AI 帮他们扩大了产品和业务的可能性。” 被替代的不是岗位本身,而是“拒绝升级的人”。 “工具带来的新分界线”:Lightcap观察到,年轻人已经习惯使用AI完成工作,而一些老员工仍在手动操作,这形成了“会用和不会用 AI 的人隔在了两边”的分界线,与年龄、资历、学历无关,只取决于是否愿意学习与AI合作。 历史的启示:Altman强调每次技术进步都会带来阵痛,但“人类总会找到新事做。我们永远想要更多,永远创造更多。” 因此,真正危险的不是新模型来了,而是“你还在用十年前的工作节奏”。 结语:AI与未来生活节奏 Altman在访谈尾声被问及孩子未来会有更多人类朋友还是AI朋友时,他表示希望是人类朋友,但AI将是“某种重要的陪伴”。这引出了访谈的根本问题:OpenAI正在构建一个怎样的未来?AI融入生活节奏:Altman和Lightcap描绘的不是纯粹的技术升级或算力竞赛,而是“一个真实在发生的生活版本未来”。他们急于解释和划清底线,是因为“窗口期真的在缩短”。 “AI 不再是你手边的工具,而是你生活节奏的一部分。” 这句话是核心洞察。它提醒普通人不需要成为工程师,但需要明白AI已经深度融入生活。 主动适应的重要性:你现在如何对待AI,很大程度上将决定它未来如何帮助你。这意味着,个人对AI的接纳和学习意愿将是未来生存和发展的关键。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

10分钟
99+
9个月前

Open AI CEO Sam Altman:即便实现了超级智能, 社会可能依然糟糕

AI圆桌π

核心主题与要点概览 本纪要根据萨姆·奥特曼(Sam Altman)在与弟弟杰克·奥特曼(Jack Altman)的访谈内容整理而成,深入探讨了他对未来5-10年AI发展的最直接预判。核心主题包括AI推理能力的突破及其对科学发现的影响、人形机器人的兴起、对“超级智能悖论”的担忧、OpenAI的“AI伴侣”生态系统愿景、Meta在人才争夺战中的挑战,以及对能源和太空开发的看法。 1. AI推理突破:从博士水平到科学发现的飞跃 奥特曼指出,OpenAI的O3模型在推理能力上已达到“优秀的博士生”水平。他强调,真正的颠覆将是AI“发现新科学的能力”,并认为这种能力的影响将“压倒一切其他应用”。 现状与突破:“O3已经相当聪明了,人们会说‘哇,这就像一个优秀的博士生’。”模型现在能在特定领域进行推理,其水平相当于该领域的博士。 进展速度:奥特曼承认,“去年的进步比我预想的要快。” 首个突破领域:他预测天体物理学可能成为AI首个实现自主新发现的科学领域,原因在于“有大量数据,但没有足够的博士来分析它们。” 标志性成就:AI在世界顶级数学竞赛中获得最高分,以及解决专家级博士才能处理的问题,将是推理突破的标志。 2. 人形机器人:物理世界“未来已来”的标志 奥特曼将人形机器人视为“终极梦想”,并预测在5到10年内,我们将看到“非常出色的人形机器人走上街头”。他认为这将是真正让人感受到“未来已来”的时刻,区别于ChatGPT带来的体验。 终极梦想:“人形机器人是梦想,显然我真的很在意这个。我认为我们最终会实现的。” 视觉冲击与习惯:“如果你走在街上,一半是机器人,你会立即习惯吗?我不知道。可能你会,但感觉会很不一样。” 质的变化:与ChatGPT等软件AI不同,人形机器人将带来“真切地感受到未来已来”的体验,而ChatGPT“仍然没有这种感觉”,因为它仍“被困在过去的个人电脑形态中。” 3. 超级智能悖论:技术进步与社会停滞的隐忧 尽管对AI技术发展充满信心,奥特曼却提出了一个令人深思的“超级智能悖论”,即“即使我们成功创造出超级智能,这个世界也可能不会因此变得更好,社会可能依然糟糕。” 核心担忧:“如果出了什么问题,我会说我们构建了真正的超级智能,但它并没有让世界变得更好,没有像听起来那样改变很多东西。” 技术图灵测试悖论:奥特曼对此感到困惑:“你可以让这个东西为你做这些令人惊奇的事情,但你的生活方式和两年前基本相同,工作方式也和两年前基本相同。”他推测,即使出现IQ高达400的AI,情况也可能依然如此。 与ChatGPT的类比:他指出,ChatGPT的出现虽然强大,但并未根本性地改变人们的生活方式,这与他设想的超级智能的潜在影响相呼应。 4. OpenAI的未来蓝图:无处不在的“AI伴侣”生态系统 奥特曼描绘了OpenAI的宏大愿景:构建一个无处不在的“AI伴侣”生态系统,它将“存在于虚空中,通过所有这些界面和所有这些产品以各种方式帮助他们(用户)。” 核心产品形态:“我认为消费者最终想从我们这里得到的是一个AI伴侣,缺乏更好的词汇,它存在于虚空中,通过所有这些界面和所有这些产品以各种方式帮助他们。” 全方位服务:这个AI伴侣将“了解你和你的目标以及你想要完成的事情和你的信息。”用户将通过多种方式与之互动,包括ChatGPT内部聊天、娱乐导向版本、与平台集成的其他服务以及新的设备。 无缝连续性:奥特曼强调了平台无处不在的重要性,它意味着“成为一个一切都整合到其中并整合到各处的平台。所以当你在车里或使用其他网站时,都是完全的连续性。” 5. Meta的人才争夺战与企业文化对比 奥特曼透露了Meta对OpenAI的人才攻势,以“上亿美元的签约奖金,每年超过这个数额的薪酬”疯狂挖角。但他对Meta的策略和文化提出了批评。 Meta的攻势:“我听说Meta认为我们是他们最大的竞争对手。他们开始向我们团队的很多人提供这些巨额报价,比如一亿美元的签约奖金,每年超过这个数额的薪酬。这太疯狂了。” 对Meta策略的批评:“我认为大量前期保证薪酬的策略,以及以此作为告诉某人加入的理由,真正专注于此而不是工作和使命的程度,我不认为这会建立一个伟大的文化。” 文化差异:奥特曼认为OpenAI的特别之处在于“我们设法建立了一种善于可重复创新的文化”,而Meta“不认为他们是一家擅长创新的公司。” 竞争认知:他提到一个有趣现象,“曾经在Meta工作的人告诉我,在世界其他地方,人们认为ChatGPT是Google的替代品。但在Meta,人们认为ChatGPT是Facebook的替代品,因为人们与它交谈的方式原本会用于其他方式,他们更喜欢它更多时间。” 6. 能源与太空:AI驱动的新征程 面对AI算力引发的能源担忧,奥特曼表现出强烈信心,认为“历史证明生活质量与能源丰度正相关”,并强调聚变与先进核能是必要解决方案。 能源信心:“我毫不怀疑人类将消耗更多能源。” 解决方案:“聚变发电相当可能实现,第四代裂变技术如Oklo公司的方案同样重要。” 终极方案与太空:他认为“终极方案是太空能源”,因为“地球能源使用量增长10倍就会导致过热,我们必须开发太阳系资源。”他展望:“但我希望最终人类消耗的能源远超我们在地球上能够产生的。即使我们完全转向核聚变,如果你将地球当前的能源使用扩大10倍或100倍,我们只是因为废热而过度加热地球。但我们有一个很大的太阳系。” 个人定位:当被问及是否会创办火箭公司时,奥特曼表示“我更信任专业公司完成此事,OpenAI需聚焦核心使命。我已经相当忙了。” 总结 萨姆·奥特曼的访谈描绘了一个AI驱动的未来,其中智能模型将突破推理极限,发现新科学,人形机器人将成为日常景观。尽管他对技术进步充满信心,但其对“超级智能悖论”的担忧也反映出对社会影响的深刻思考。OpenAI致力于构建无处不在的“AI伴侣”生态,同时面临着激烈的人才竞争。长远来看,能源的充足供应,乃至利用太空资源,将是支撑AI时代发展的关键。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

7分钟
99+
9个月前

任正非:不去想困难,干就完了!国家越开放,会促使我们更加进步!

AI圆桌π

本简报文档旨在深入解读《人民日报》于2025年6月10日刊登的对华为首席执行官任正非的访谈内容,提炼其关于企业发展、国家未来、基础研究、技术挑战与机遇等方面的核心观点,并分析其背后所蕴含的哲学思想与战略洞察。 主要主题与核心观点 1. 应对外部挑战与困难:实干与斗争 任正非在面对外部封锁和打压时,强调“没有想过,想也没有用。不去想困难,干就完了,一步一步往前走。” 他认为“实干兴邦”是中国传统文化,也是发展的支撑。面对困难,唯有坚定不移地“干下去、斗争下去,才有出路”,空想和让步只会导致失败,甚至成为“第二个日本”。这与毛主席“打得一拳开,免免百拳来”的气概一脉相承。 2. 技术差距与弥补策略:谦逊、自信与多样性 尽管昇腾芯片面临风险警告,任正非展现了清醒的自我认知和战略自信。他指出“美国是夸大了华为的成绩,华为还没有这么厉害…我们单芯片还是落后美国一代”。然而,他同时提出弥补策略:“我们用数学补物理、非摩尔补摩尔,用群计算补单芯片,在结果上也能达到实用状况。” 这体现了华为在技术路径选择上的灵活性和创新性,即通过多技术方案的融合来弥补单一维度的不足。 3. 核心困难与未来突破口:教育培养与人才梯队建设 任正非认为当前的主要困难并非技术本身,而是“在我们的教育培养、人才梯队的建设…”。他深刻洞察到软件“卡不住脖子,那是数学的图形符号、代码,一些尖端的算子、算法垒起来的,没有阻拦索”,这暗示了软件领域的自主可控性。他提出,真正的突破在于“突破现有西方基础知识体系,避开其专利等束缚,实现真正的创新突破”,并且强调“‘造不如买’是最大的战略错误、是幻想;没有自己本质的东西,制裁可以随时到来。” 这凸显了国家层面在人才培养和基础创新上的战略紧迫性。 4. 应对赞誉与批评:清醒与理性 面对外界的赞扬,任正非表现出高度的清醒:“说我们好,我们压力也很大。骂我们一点,我们会更清醒一点。” 他认为“只要讲真话,即使是批评,我们也支持。” 强调企业应“把自己做好”,并呼吁国家对“真正的骂”要鼓励支持,对“恶意诽谤”则应坚决打击。这种理性对待毁誉的态度,是企业持续发展和创新的内在动力。 5. 基础研究的战略地位:国家希望与长期主义 任正非将基础理论研究视为“国家未来的希望”和“根基”。他指出,“当我国拥有一定经济实力的时候,要重视理论特别是基础理论的研究。” 因为“如果不搞基础研究,就没根。即使叶茂,欣欣向荣,风一吹就会倒的。” 他强调基础研究的周期性(“10年、20年或更长的时间”)和非功利性(“不考核”),并呼吁社会对理论科学家保持“战略耐心”和“宽容”,国家应给予“实际地支持”,包括资金、人才以及创新财政和企业支出、成果共担共享机制,以避免“赶不上美国”。他以罗登义、屠呦呦、黄大年等为例,说明基础研究的伟大贡献往往需要时间才能被 fully 理解和认可。华为的“黄大年茶思屋”正是这种长期主义投入的体现,作为非盈利网络平台,旨在开放喇叭口,与院校合作,促进基础研究信息的共享。 6. 社会主义市场经济的优势:社会效益与基础设施建设 任正非认同中国社会主义道路在基础设施建设上的独特优势。他指出,高铁、高速公路、水坝等“并不赚钱,但垫起一个发达的社会基础,为工业、农业现代化作出了贡献”,这体现了“国有企业的社会价值”。他明确表示:“社会主义的一个目的就是为了发展社会。” 这与资本主义追求“发展资本”形成对比,凸显了社会主义制度以人为本、注重整体社会效益的本质。 7. 人工智能的未来与中国优势:电力、网络与行业专家 任正非将人工智能视为“人类社会最后一次技术革命”(或与核聚变并列)。他认为中国在人工智能发展上具有诸多优势,包括“数亿青少年”这一人才基石,以及“充足的电力、发达的信息网络”等技术支撑。更重要的是,他强调“算法不掌握在IT人手里面,而是掌握在电力专家、基建专家、煤炭专家、医药专家、各类行业专家……手里面。”这意味着人工智能的真正落地和创新,依赖于各行各业的实践专家将数据转化为知识和模型,从而诞生“很多中国模型”。 8. 制造业的强大与开放:高质量、高效率与智能化 任正非认同弗里德曼对中国制造业的评价:“中国制造业像今天这样强大的原因,不仅在于它的高质量,能更便宜地生产东西,也在于它能更快、更好、更智能地生产东西,而且正在越来越多地将人工智能融入产品中。” 他强调“国家越来越开放,开放会促使我们更加进步。” 相信在党的领导下,中国将逐步形成统一大市场,最终“突破所有的封锁,实现伟大的复兴”。 9. 促进民营企业发展:法治化与市场化 任正非明确提出,民营企业发展需要国家提供“法治化、市场化,政府依法依规行政”的支持。他认为企业应聚焦于“价值创造、技术突破,遵纪守法,依法纳税”,这样才能形成“和谐的发展模式,就会让经济活力一点点地散发出来”。 结论与启示 任正非的访谈为中国企业和国家未来的发展提供了宝贵的战略指引。其核心思想可概括为: * 坚定实干与斗争:面对外部压力,放弃空想,唯有行动才能破局。 * 深耕基础与人才:技术瓶颈的根本解决之道在于教育培养和基础理论研究的突破。 * 长期主义与战略耐心:基础研究回报周期长,需国家、社会、企业形成合力,给予科学家充分的宽容和支持。 * 理性开放与自信:清醒认知自身优劣,积极拥抱开放,以创新弥补不足。 * 社会主义的制度优势:在关键基础设施和公共服务领域,社会主义制度能更好地实现社会效益,奠定国家发展的基石。 * 赋能千行百业:人工智能的未来在于与各行业深度融合,发挥行业专家的主导作用。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

12分钟
99+
9个月前

“Chatgpt之父”Ilya多大毕业演讲:当AI取代一切工作,人类还剩下什么?

AI圆桌π

* 摘自“ChatGPT之父”伊尔亚多伦多大学最新毕业演讲:当AI做得比你好,人类还剩下什么?我们该怎么办? 主要主题与核心观点: 伊尔亚·苏茨克维(Ilya Sutskever),OpenAI联合创始人兼前首席科学家,在多伦多大学的毕业典礼上发表了一场关于AI对人类未来影响的演讲。他强调了AI将全面超越人类能力的必然性,并提出了在这一巨变时代下,个体和社会应如何应对的核心观点。 1. 接受现实,专注于当下与未来 伊尔亚的第一个建议是“接受现实,不沉迷后悔过去,专注于当下可以做的事。” 他指出,人们常常陷入“如果我当时不那样就好了”或“这事太不公平了”的思维,但这只会将人困在过去。他自己的经验表明,当他放下“如果当初…”,转而思考“好吧,事情已经这样了,那我现在最好的下一步是什么?”,问题反而变得简单。这一建议不仅针对毕业生,更是对身处时代剧变中的每个人的提醒。 2. AI将能学会人类所能学会的一切 伊尔亚提出了一个大胆但逻辑清晰的论断:“人类有大脑,大脑是一种生物计算机。所以没道理计算机做不到大脑能做的事。只要是人类能学会的事,AI迟早也能学会。” 他认为,既然大脑是生物计算机,那么作为人造计算机的AI最终也能复制甚至超越大脑的功能。当前的AI已经展现出对话、写作、绘画、编程甚至生成视频的能力,这预示着AI未来将取代或合作完成人类的所有工作。 3. 最剧烈的变化尚未到来 伊尔亚认为,当前的AI进展仅仅是“开始改变一些事情”,真正的颠覆性变革仍在未来。“我们其实正处在人类历史上最奇怪的时间之一。不只是工作方式会变,连‘做人’这件事本身,都会被重新定义。” 他预言,未来AI将成为“我们所有工作的替代者,甚至合作者”,并且“一旦AI开始自己优化AI,技术进步会进入一个指数级飞跃”,这将带来前所未有的剧变。 4. AI是人类可能面临的最大挑战 伊尔亚将AI的挑战分为两个层面: * 职业层面: 哪些技能仍然有价值?哪些行业将被取代?这是许多人已经感受到的切身问题。 * 社会选择层面: 这是更深层次的问题。“真正的问题是,我们想用AI来做什么?是更多的经济增长?更快的研发?更强的控制?谁来定义AI的目的,谁来控制AI的行为?” 他警示道,就像政治迟早会找上门一样,AI的影响更是无人能避。 5. 不需要懂AI,但必须关注它 伊尔亚强调,虽然不要求每个人都成为AI专家,但“你不能不看它”。他认为,目前很多人对AI的未来仍停留在“想象”阶段,但“再过一年、两年、三年,你看到它能做到的事情,就再也骗不了自己说‘这没什么’了。” 届时,人们将亲眼目睹AI的能力,并不得不做出选择和回应。他总结道:“你喜欢也好,不喜欢也好,AI都会深刻地影响你的人生。但理解它、关注它、思考你想用它来做什么,才是更重要的。” 这不仅是对毕业生的忠告,也是对所有人的“时代提醒”,即在AI时代,最需要学习的或许是“理解这个世界的方式,和选择成为怎样的人的能力”。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

5分钟
99+
9个月前

DeepMind CEO: AI将创造3类全新高价值工种!

AI圆桌π

核心观点 Google DeepMind 首席执行官、诺贝尔奖得主德米斯·哈萨比斯在伦敦 SXSW 大会上强调,AI正在加速替代旧有工作岗位,但同时也将催生“全新的、非常有价值的工作”。他预测,未来5-10年,懂得与AI协作的人将进入职场红利期,并指出数学、物理、计算机等STEM学科背景的人才将更受欢迎,而非传统MBA。 AI带来的变革规模 哈萨比斯明确表示,这并非灾难,而是提醒人们“要学会和它一起工作”。AI正在“接手”大量重复性、流程化、标准明确的工作任务,例如: 招聘岗位: 简历筛选、面试安排。 基础编程: 模板代码编写、接口文档查询。 文案编辑: 初稿生成、结构润色。 DeepMind内部已能用AI完成视频生成、代码编写等复杂任务,效率甚至高于新手程序员。微软、Meta、亚马逊等公司也已在大量岗位中引入AI协作,重塑入门级职能。哈萨比斯归纳了AI时代的三类高价值新工种,它们的核心是与AI的深度协作,而非简单使用工具: 1. AI 协作师(AI Workflow Orchestrator) 定义: 不亲自编写代码或开发模型,而是**“调动AI去做事的人”**。他们懂得如何下达清晰任务、判断AI输出的可靠性,并跟进AI的工作进度,在必要时进行人工完善。 核心能力:理解AI能力的边界(能做什么,不能做什么)。掌握与AI沟通的技巧(例如:提示词设计)。具备判断AI输出结果准确性的能力。 典型工作: “AI营运”、“提示设计”、“任务协调员”等。 哈萨比斯洞察: AI应从“回答问题”升级为“完成一件事”,例如自动处理电子邮件。他表示愿意为这样的AI工具支付高昂费用,这凸显了这类角色在提升效率方面的巨大价值。 2. 科学合作者(Scientific Collaborator) 定义: AI不再是辅助工具,而是**“一起破题的人”**。这类人与AI共同提出科学假设、搜索和交叉比对资料,甚至让AI自行设计验证方案,再由人类检查成果。 核心能力:具备一定的数学和领域专业知识。能快速理解AI工具的优劣势。拥有强烈的问题意识和“打破常规”的勇气。 典型案例: DeepMind的AlphaTensor独立发现50年未改进的基础数学运算新方法;AlphaFold在18个月内预测了2亿个蛋白质结构,远超人类过去几十年总和。 3. AI 伦理专员(AI Safety & Ethics Officer) 定义: 面对AI的快速发展,“我们不能等到出事才来修规则”。这类专员负责提前思考AI可能被误用、滥用的风险,主动测试模型的漏洞和潜在歧视,并为特定应用场景制定AI的底线和使用规范。 核心能力:像技术专家一样找漏洞(好奇心、逻辑性)。像监管者一样立规矩(责任感)。像心理学家一样考虑人类如何使用AI。 DeepMind实践: 设立“红队”(Red Team)机制,在模型上线前进行“故意捣乱”测试,以发现偏见、错误信息或敏感内容。 哈萨比斯警示: “AI不是原子弹,但也不是微波炉。它是新一类技术,不能套用旧模板。” 该岗位是所有AI部署的“保险垫”,尤其在高敏感场景(医疗、金融、教育)中至关重要。国内大厂也已开始招聘“模型安全测试工程师”、“AI伦理分析师”等岗位。 职场转型:升级你的AI组合力 哈萨比斯强调,AI不是工具,而是合作者。普通人应“要能和AI共事,而不仅仅是使用它”。他给出以下四条建议,构建“学好基础 → 掌握工具 → 解决实际问题”的发展路线: 优先选择理工(STEM)类学科: 数学、物理、计算机是理解AI底层能力、训练优化模型、掌握工具和自动化流程的关键。LinkedIn报告显示,数学、计算机、物理是AI人才增长最快的关键技能。 亲自试用AI工具,越多越好: 亲身实践是理解AI能力边界的最佳方式。未来的工作模式是“你给出目标,AI跑完整流程” 适应变化,而非被流程框死: 具备快速理解新工具并调整工作方式的“适应性(Adaptability)”至关重要。岗位职责会随着AI迭代而不断演变。 找回科学、人文和哲学的连接点: 在追求技术优化的同时,更要思考AI应解决哪些问题、为什么解决。这需要跨学科理解、价值判断和人文关怀。 总结 哈萨比斯的演讲指出,未来的工作模式不再是“人对机器”,而是**“人和AI一起解决更复杂的问题”。关键在于将AI视为“合作者”而非“工具”。下一代人才的核心技能将是“懂工具 × 懂合作 × 懂机会”**,即:能分解任务、指挥AI、与AI配合试错、与不同人协作,并能看清哪个问题值得解决。这“三类新工种”——执行者(AI协作师)、合作者(科学合作者)、监管者(AI伦理专员),共同构成了AI时代协作链上的三种关键角色,代表着人类与AI搭档时必须学会切换的三种身份。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码

6分钟
99+
9个月前

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧