谷歌 I/O 2025 开发者大会简报会议日期与地点: 2025年5月20日(周二)至21日(周三),山景城海岸线圆形剧场 核心主题: 人工智能(AI)在谷歌全线产品中的深度整合与范式转移,特别是搜索从“回答问题”向“执行任务”的转变。 AI 核心能力提升与产品线扩展: Gemini Ultra: 谷歌最高级别的人工智能访问订阅服务(目前仅限美国),月费 249.99 美元。包含访问 Veo 3 视频生成器、Flow 视频编辑应用、Gemini 2.5 Pro Deep Think 模式(即将上线)等。提供更高使用额度的 NotebookLM 和 Whisk,以及 Chrome 中的 Gemini 聊天机器人、部分 Project Mariner 代理工具、YouTube Premium 服务以及 Google Drive、Google Photos 和 Gmail 的 30TB 存储空间。 Gemini 2.5 Pro 的 Deep Think 模式: Gemini 旗舰模型的“增强型”推理模式,能在回答前考虑多个答案,提升特定基准测试表现。已通过 Gemini API 向“可信测试人员”开放。 Veo 3 视频生成模型: 能够生成音效、背景噪音和对话,质量比 Veo 2 有提升。通过文本或图像提示使用。已向 AI Ultra 订阅用户开放。 Imagen 4 图像生成器: 速度比 Imagen 3 更快,未来计划推出快 10 倍的变体。能渲染精细细节(如织物、水滴、动物皮毛),支持写实和抽象风格,生成高达 2K 分辨率的图像。Veo 3 和 Imagen 4 将支持 Flow 应用。 Gemma 3n: 设计用于在手机、笔记本电脑和平板电脑上“流畅运行”的模型,支持处理音频、文本、图像和视频。已提供预览版。 Lyria RealTime: 为实验性音乐制作应用提供动力的 AI 模型,现已通过 API 开放。 SynthID Detector: 使用 SynthID 水印技术帮助识别人工智能生成内容的验证门户。 搜索范式重构:“AI 模式”与“任务助手” 核心理念转变: Google 搜索不再仅仅是返回链接集合,而是通过 AI 直接理解用户意图并执行多步骤任务。“搜索框不重要了,接下来 Google 会直接帮你把事办了。”(Sundar Pichai 语) AI 模式(AI Mode): Google 搜索的新界面,不是展示答案,而是“自动帮你完成任务”的系统。它能分析复杂意图(审美、家庭结构、预算等),展示可视化选项,推荐对应商品/服务,并自动回答相关问题。用户无需点击链接或跳转页面。 底层技术:Query Fanout + Gemini 2.5 多步推理。 用户一次提问,系统在后台分拆成几十个子问题,调用多个数据库、商业图谱、地图系统等,综合生成结构化的完整答案和行动建议。这是从“展示网页”到“直接完成任务”的转变。 Project Mariner: 谷歌最重要的“动手能力”系统,是全新的底层代理系统,负责“你说目标,它来执行”。它能浏览和使用网站,处理多达近十二项任务,例如代用户购买棒球比赛门票或在线购买杂货,无需用户访问第三方网站。“这不是推荐网页,也不是展示结果——它是真正去干活。”(Rajan Patel 语)具有 Teach & Repeat(学习&重复)机制,用户演示一次,系统就能学会并在之后自动执行相似任务。被定义为谷歌正在构建的通用 AI 执行代理。 AI 模式的深入应用: 支持在体育和金融查询中使用复杂数据,为服装提供“试穿”选项。未来将支持根据手机摄像头实时捕捉的内容提问(Search Live)。 Gemini 搜索的体验: 直接给出结果,甚至生成图表、建议和决策路径。例如,查询棒球数据可自动生成对比图表;查询适合独自就餐的餐厅可生成结构清晰的可视化清单。搜索不再只是找到信息,而是像一位私人顾问,给出结构化答案和可执行方案,甚至具备“自己检查答案”的能力。 AI 应用与交互的扩展: Gemini 应用更新: 月活跃用户超过 400 万。Gemini Live(摄像头和屏幕共享功能)本周面向所有 iOS 和 Android 用户推出,支持与 Gemini 近乎实时的语音对话并流式传输摄像头/屏幕画面,由 Project Astra 提供支持。未来几周将更深入集成 Google 地图、Google 日历和 Google 任务。Deep Research 将支持用户上传私人 PDF 和图像。 Project Astra: 谷歌的低延迟多模态人工智能体验,将为搜索、Gemini 应用和第三方开发者产品提供新体验。源自 Google DeepMind,旨在展示近乎实时的多模态 AI 能力。能从用户看到的场景中主动理解并提供回应,“摄像头成了新‘搜索框’”。正在与三星和 Warby Parker 等合作伙伴开发 Project Astra 眼镜,将搜索带向“随时在场”的状态。 AI 模式(AI Mode): Google 搜索的实验性功能,允许用户通过 AI 界面提出复杂的、多部分的问题。 Chrome 中的 Gemini: 将引入新的人工智能浏览助手,帮助用户快速理解网页内容并完成任务。 开发者工具与平台更新: Stitch: 人工智能工具,通过生成用户界面元素和代码帮助用户设计网页和移动应用前端。用户可以通过文本或图像提示创建应用界面,并获取 HTML 和 CSS 标记。 Jules: 旨在帮助开发者修复代码错误的 AI 代理,扩大了使用范围,可帮助理解复杂代码、创建拉取请求、处理待办事项和编程任务。 Wear OS 6: 为磁贴引入统一字体,支持动态主题(Pixel 手表),使应用外观更简洁。发布设计指南和 Figma 设计文件,核心是帮助开发者构建更好的自定义功能和无缝过渡效果。 Google Play: 加强 Android 开发者功能。提供处理订阅的新工具、主题页面、音频样本,以及更流畅的附加销售结账体验。电影和电视剧的“主题浏览”页面(目前仅限美国)将连接相关应用。开发者获得专门的测试和发布页面工具,以及在出现严重问题时暂停实时发布的功能。订阅管理工具升级支持多产品结账和订阅附加项一次性支付。 Android Studio: 集成新的人工智能功能,包括与 Gemini 2.5 Pro 同步推出的“Journeys”(“代理人工智能”功能)和“Agent Mode”(处理更复杂开发流程)。增强应用质量洞察面板中的“崩溃洞察”功能,由 Gemini 驱动,分析源代码以识别崩溃原因并建议修复。 战略意义与核心观点: 搜索的底层重构: 谷歌正在将搜索从一个信息查找工具转变为一个任务执行系统。用户不再是输入关键词寻找答案,而是表达目标,由 AI 系统自动理解、分拆任务、调用资源并完成执行。“搜索不再‘回答问题’后,谁还能抓住用户?”这个问题成为焦点,答案是谁能把“问答”变成“办事”。 AI 执行代理是新平台入口: Project Mariner 等代理系统的出现意味着 AI 不再只是内容工具,而是进入了“实质执行”的角色。谁能负责“理解用户目标 → 调用资源执行 → 给出结果”,谁就能接管下一个时代的产品控制权。这是一种新的“平台税”收取方式。 从“功能框”到“任务流编排”: 产品设计思维需要从构建独立功能转向编排复杂的任务流程。Google 的整套产品(Gemini 应用、AI Mode、Project Mariner、Chrome Gemini)正在重新串联用户决策链,使平台能够调度资源并自动完成任务。 AI 的具身化与环境感知: Project Astra 和 Gemini Live 表明,AI 正走出屏幕,通过摄像头和传感器理解现实世界。“它能理解你在看什么、说什么、做什么,并主动出手。”(Demis Hassabis 语)。未来的搜索入口可能是摄像头或智能眼镜,AI 能够根据视觉线索和语境提供实时、情境化的信息和帮助。Gemini 正在从一个语言模型转变为一个世界模型。 开发者面临的挑战与机遇: 随着搜索和 AI 平台逻辑的改变,开发者需要思考如何将自身产品与新的 AI 执行入口对接。谁能率先打造“任务执行入口”,谁就能成为新平台定义者。目前的挑战在于任务链重构(从点击功能转向调度目标)和调用协议联通(形成“模型 × 应用 × 权限”的统一调度机制)。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
“迟早我们要与美国相遇的,那我们就要准备和美国在“山顶”上交锋,做好一切准备,从那时起,就考虑到美国和我们在“山顶”相遇的问题,做了一些准备。但最终,我们还是要在山顶上拥抱,一起为人类社会做贡献的”——2019年5月22日任正非接受媒体访谈时这样描述中美关系。因工作原因,主播受邀参加了今天(2025年5月19日)在成都举办的华为电脑 +手机 +平板发布会,本期节目将结合现场见闻和过去六年的相关信息,分析华为在自主操作系统,特别是PC操作系统领域的战略背景、技术突破、面临的挑战以及未来的机遇。 重要观点与事实: 美国制裁与“备胎计划”的转正: 2019年,任正非在面对美国制裁时表示,华为早有准备,特别是针对核心领域的“备胎计划”可以应对供应中断。他使用“烂飞机”的比喻,指出华为的非要害部位可能受损,但核心技术不会受太大影响,尤其是在5G领域。微软终止Windows授权被认为是鸿蒙PC发布的直接导火索,制裁加速了华为从“备胎计划”转向全栈自研PC操作系统。 鸿蒙系统从移动端向PC端的扩展: · 鸿蒙系统自2019年发布以来,已覆盖超过10亿终端设备,主要在手机、平板和IoT设备。PC端的加入标志着鸿蒙完成了全场景的闭环,从“替代追赶”向“生态引领”转型。 · 鸿蒙电脑的问世,代表着华为终端全面进入“鸿蒙时代”。 鸿蒙PC的技术优势与挑战: · 技术优势:自主微内核: 鸿蒙PC搭载的HarmonyOS采用了完全自主研发的微内核架构,代码量小,安全性高,获得了CC EAL 6+等高级安全认证。 · 分布式架构与全场景协同: 通过“软总线”技术,鸿蒙电脑可实现手机、平板、PC间的无缝协同(如跨屏操作、键鼠共享、任务接力),重构了多终端协作体验。 · AI深度融合: 小艺助手直接扎根系统底层,权限更高,支持文档生成、会议助手、本地搜索等功能,提升办公效率。 · 方舟图形引擎: 采用人因交互优先策略,优化硬件负担,提升流畅度,对轻薄本友好。 · 挑战:应用生态短板: 鸿蒙PC目前适配的应用数量与Windows(几十万)差距巨大,尤其是专业软件(如Adobe、AutoCAD)适配不足。 · 用户习惯与兼容性: 用户习惯Windows和macOS的交互逻辑和海量应用,鸿蒙PC需要依赖虚拟机运行Windows软件,原生吸引力尚需提升。 华为在基础研究、人才培养与全球化合作: · 华为长期投入基础研究,拥有大量数学家、物理学家等,通过向全球大学“撒胡椒面”式资助,遵循“拜杜法案”原则,促进基础研究和人才培养。 · 华为重视人才吸引,甚至愿意用高于Google的薪酬争夺俄罗斯的优秀计算机人才,强调科学家的自由度和使命感。 · 任正非认为中国应该调整政策,拥抱世界人才来中国创业,学习美国的开放精神。 自主可控与开放合作的平衡: · 任正非反对狭隘的“自主创新”,认为科技创新应站在人类文明的基础上前进,反对重复制造“轮子”。 · 鸿蒙PC的目标是提供Windows和macOS之外的另一种自主可控的选择,尤其在安全敏感的政企市场具有重要意义。 · 华为坚持开放合作,吸引开发者(“一次开发,多端部署”)和产业链伙伴,共同建设鸿蒙生态。 · 尽管面临挑战,鸿蒙PC被视为中国信息产业自主可控的重要一步,开启了国产操作系统的新篇章。 总结: 华为鸿蒙PC的推出是其在复杂的国际环境下,长期技术积累和战略预判的必然结果。面对外部制裁和供应链风险,华为将移动终端上取得成功的鸿蒙系统扩展到PC领域,旨在打破Windows和macOS的垄断,尤其是在对自主可控有强烈需求的国内政企市场建立根据地。 鸿蒙PC在技术上展现了独特的优势,特别是自主微内核、分布式架构带来的多终端协同体验,以及系统层面的AI集成和高安全性。然而,其最大的挑战在于应用生态的建设,需要大量时间和开发者的投入才能与现有成熟系统抗衡。 短期内,鸿蒙PC可能主要在国内政企市场和特定行业发挥作用;长期来看,其成功将取决于生态建设的速度、国产替代的深度以及能否在AI和分布式等新兴技术领域引领创新,从而在全球PC产业格局中赢得一席之地。这是一场漫长而复杂的博弈,不仅关乎华为自身的命运,也对中国科技自立自强具有重要的历史意义。正如任正非所言,这场“山顶交锋”既是生存之战,也是中国科技自立自强的历史性机遇。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
核心主题: 本文探讨了沙特阿拉伯正在通过国家战略,从石油经济转向AI基础设施建设,旨在成为全球AI计算能力的中心。文章强调了AI正在从技术和模型竞赛转变为国家级基础设施建设,并分析了美国科技巨头为何积极参与沙特的AI部署。 主要要点和重要事实: AI作为国家级基础设施: · AI革命的主战场正在从“软件战争”转向“建AI工厂”,AI已成为如同电力和互联网一样的基本基础设施。引用黄仁勋的原话:“AI,就像电力和互联网一样,是每个国家的基本基础设施。” · 模型训练不再是研发行为,而是工业行为,需要统筹电力、冷却、数据集成等国家级整合能力。AI的落点从“模型”转变为“供给”,关键在于谁有能力连续、稳定、可控地生产智能。 沙特的AI战略与Humain公司: · 沙特政府宣布成立国有AI全价值链公司HUMAIN,由主权基金PIF全资控股,目标是打造全球AI工业基地。 · Humain的首期部署计划包括配备1.8万颗NVIDIA Blackwell芯片,落地一座500兆瓦级AI超级数据中心,并预计5年内扩展到1.9吉瓦规模,构成全球最大“主权AI训练工厂”之一。沙特希望建设的不是一家OpenAI,而是一个AI国家基础设施提供商。 · Humain的结构设计极具战略性:完全主权架构,没有IPO,将企业、平台、模型和产业链全部纳入国家部署,由王储担任主席,国家安全委员会直接领导。 · 沙特的目标是成为AI自主模型的输出国、算力出口的新枢纽和系统级能力的主权承包方。这是沙特复制“阿美公司模式”,利用重资产布局打造全球定价能力的尝试。 马斯克的系统演示: · 在沙特-美国投资论坛上,特斯拉Optimus机器人跳舞吸引眼球。马斯克展示的不是单一技术,而是覆盖通信、交通、劳动力的“AI操作系统”,即战略级操作系统的雏形。 · 引用马斯克的话:“我们正在走向一个完全不同的世界,我预测最终将会有数百亿个人形机器人。”、“就像每个人都有自己的 C3PO 或 R2-D2,那将非常棒。” · 马斯克通过故事、场景和实物演示(如机器人跳舞)来构建信任和展示未来图景。他提出AI的未来更可能是《星际迷航》,推荐《文化》系列小说作为设想。 美国科技公司在沙特的部署: · 多家美国科技公司正在沙特进行集体“落户”,将算力、芯片、数据、运营系统直接迁入。已确认的投资和部署包括: · Salesforce:投资5亿美元,支持沙特AI基础设施和应用层合作。 · AWS(亚马逊云):投资53亿美元,建设本地数据中心与AI云平台。 · Groq(NVIDIA竞品):获得15亿美元支持,扩展AI芯片交付能力。 · Google与IBM:已在沙特设立地区AI中心并扩展本地团队。 · Blackstone:公开表示要成为全球AI基建的最大金融投资者之一。 · 美国公司愿意迁入沙特的原因在于其提供的工业级可部署条件,包括顶层设计、土地、电力、冷却系统、数据集成以及国家级的推进标准。 · 引用AWS投资负责人的话:“这是全球为数不多,能以国家级标准推进 AI 工厂建设的地区。” · 引用Google Cloud方面的话:“沙特正在成为中东 AI 枢纽,我们需要在这里落下根。” 对中国的启示与挑战: · 中国在AI公司数量、研究人员、训练数据和模型发布速度方面全球领先。但沙特已经在规划和建设整体化“AI工厂”,而中国的讨论焦点似乎仍集中在“AI应用”层面,存在“部署节奏”上的差距。沙特采取的是不等模型突破,直接上系统部署,先建基础设施再接入模型的策略。 · 关键问题包括:中国能否打造自己的“主权AI工厂”?谁来承担系统级整合商角色?是继续“百模大战”还是统一部署“AI新基建”?是否拥有“组织AI系统”的能力,而非仅是使用AI模型的能力?AI工业革命的窗口期正在快速收窄,关键在于谁能构建整体生态并统筹落地。 结论: AI正在从“工具竞争”走向“产业建设”,从“公司创新”走向“国家部署”。沙特不是在参与技术,而是在落地一整套工业战略:用主权主导算力,将AI工厂视为国家级生产设施;用国家公司Humain统一管理数据、芯片、模型、云平台;将AI视为与石油一样的战略资产。AI工业革命的开场不在论文或实验室,而是在沙漠里。未来的竞争属于“能把整体生态构建起来”的一方,真正的挑战在于谁来定义生态、统筹落地并给出“AI时代的组织施工图”。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
来源: 尤瓦尔·赫拉利在东京庆应义塾大学的讲座摘录,《人类简史》作者尤瓦尔:当今世界最大的危险是人类互不信任,却信比碳基生命进化快百万倍的AI,我们拒绝真相,因为它昂贵复杂和痛苦 日期: 春季(具体日期未注明,推测与新书《智人之上》日文版宣传有关) 讲者: 尤瓦尔·诺亚·赫拉利(Yuval Noah Harari),以色列历史学家,著有《人类简史》、《未来简史》、《今日简史》等。 主持人: 伊藤公平(Kohei Itoh),庆应义塾大学校长。 核心主题: · AI成为当前人类面临的最优先和最严峻的威胁。 · AI的本质是“能动者”而非“工具”,其异类性使其难以预测和控制。 · AI的飞速发展与人类社会缺乏互信形成巨大悖论。 · 信息洪流时代,教育的重点应从知识传授转向辨别真相。 · 重建人类之间的信任是应对AI挑战的最迫切任务。 · 二战后的国际秩序正在瓦解,AI竞赛加剧了地缘政治风险。 · 算法和社交媒体正在改变人类合作基础——共享叙事和信任。 · 维护言论自由与规范信息传播,禁止“伪造人类”至关重要。 · AI正在改变战争决策权,可能带来危险后果。 · 阴谋论的流行源于真相的复杂性和虚构的简单性。 · AI将以前所未有的方式改变娱乐内容创作,带来“异类”创造。 · 信任是生命的基石,也是应对AI时代的最终解方。 主要观点和重要事实: AI威胁优先级的提升: 赫拉利修正了其在《今日简史》中提出的三大威胁(核战、生物技术、信息技术/AI)的优先级。如今,AI风险被认为远高于核威胁和生物技术威胁。 AI发展速度远超生物技术: AI的迭代速度极快,可能是“几天”,而生物技术的“代际”周期长达二三十年。AI的数字进化比有机进化快“数百万倍”。 AI是“异类威胁”: 与核威胁的危险性显而易见不同,AI的危险难以把握,因为它是一种“异类的威胁”。AI并非邪恶,但其与人类智能完全不同,难以预测。 AI是第一个“能动者”技术: 赫拉利强调,AI是人类有史以来创造的第一个作为“能动者”而非单纯“工具”的技术。它可以在没有人类干预的情况下自行决策和创造。 AI竞赛中的信任悖论: 领导AI研发的公司和国家都因不信任竞争对手而加速发展,但他们却表现出对正在开发的超级智能AI的高度信任,这种对比“濒临疯狂的边缘”。 人类互信的重要性与崩溃: 尽管人类在历史上建立了大规模互信的能力,但近一二十年间这种信任正在瓦解,部分原因是新技术中介了人类交流。 教育的使命:从知识传授到辨别真相: 在信息爆炸时代,教育机构的任务不再是提供信息,而是教导人们如何在海量信息中找到“真相”,并区分可靠和不可靠的来源。 “精英”的再定义与服务型精英的培养: “精英”是一个被滥用的词汇,问题不在于精英是否存在,而在于他们是“服务型精英”还是“自私自利型精英”。大学的使命应是培养服务于社会福祉的精英。 国际秩序的瓦解与战争风险: 二战后强国不随意入侵弱国的国际秩序正在瓦解,各国军事预算回升,这种趋势加剧了全球冲突风险,也阻碍了AI监管。 共享叙事与算法的挑战: 人类通过共享故事进行大规模合作(如金钱),但算法和社交媒体正在成为新的“故事版本”生产者和传播者,人们的信任正从人类机构转向算法。 禁止“伪造人类”的必要性: 作为维护人类信任的最简单一步,政府应立法禁止算法或机器人冒充人类身份。AI与人类交流时必须表明其AI身份。 区分“言论自由”与“信息自由”: 言论自由是赋予人类的权利,信息自由是赋予算法和机器人的权利。社交媒体公司通过算法故意传播谎言和仇恨的行为不应受到言论自由的保护,应被制止和惩罚。 AI改变战争决策: 虽然杀伤仍主要由人类执行,但AI正越来越多地决定战争中的目标选择和关键决策,这带来了极大的危险。 阴谋论的根源在于复杂性: 阴谋论的流行是因为它们提供简单叙事,而真相(如病毒和流行病)往往是复杂、昂贵和痛苦的。 AI将带来“异类”娱乐内容创作: AI能以更低的成本和更高的效率生产娱乐内容,并能“突破人类想象力的局限”,创造出人类自身想不到的全新形式和内容。 信任是生命的基石和最终解方: 尽管面临诸多挑战,赫拉利强调,信任是生命的基础,没有信任无法生存。重建人类互信是安全发展AI并应对未来挑战的关键。 结论与展望: 赫拉利对AI带来的挑战持谨慎甚至忧虑态度,特别是强调了AI的“能动者”和“异类”本质以及人类社会日益缺乏互信的危险叠加。他认为,AI竞赛和国际秩序的瓦解互为加剧,共同构成了人类历史上的巨大挑战。然而,他并非完全悲观,相信只要人类能在AI完全成熟之前重建足够的互信并采取行动(如立法禁止伪造人类、区分言论自由与信息自由),仍有可能以安全的方式驾驭AI革命。教育机构在培养服务型精英和教导学生辨别真相方面具有重要作用。最终,他将信任视为应对当前和未来挑战的核心,是生命赖以维系的基石。他强调,每个人在自己的领域内尽力贡献微小的能动性,共同努力,人类社会仍有希望安然度过这一转型时期。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
简报:Reid Hoffman关于AI哲学和超级能动性 核心主题:本访谈围绕AI时代下的人类角色、技术与社会的互动、以及个体和集体如何在新格局下保持和增强“能动性”(Agency)。霍夫曼强调AI不仅是技术工具,更是深刻改变社交、认知和人类存在方式的新媒介层。他呼吁拥抱变化,主动塑造未来,并从历史、哲学和人类本性的角度探讨了AI带来的机遇与挑战。 AI作为新的社交媒介层: 霍夫曼预测未来我们将生活在被AI代理(agents)环绕的场域中。AI将不仅仅是聊天机器人,而是渗透到所有社交互动中的中介者。这类似语言、互联网或社交礼仪对人类互动的影响,形成一个由无数AI代理构成的无处不在的“场域”,深刻改变我们的社交方式。 引用: "人们总是因为聊天机器人而把AI看作是一对一的互动,就像是我和我的聊天机器人对话,类似谷歌搜索。但实际上,在未来几年内,我们将生活在一个被代理(agents)包围的场域中。"..."所有这些社交互动现在都将有一个由代理组成的中介场域。" 警惕AI拟人化与社会化: 霍夫曼强调在使用AI代理(如Pi)时必须小心拟人化问题。AI应增强而非替代人类关系。我们需要发展新的社交词汇和规则来区分与AI和人类的互动。对于儿童与AI的互动,他特别强调AI的社会化培养,避免培养出“主人”心态。 引用: "我们必须小心AI的拟人化(anthropomorphication)问题。"..."它不想取代你的人际关系,它想成为你社交互动全景中的一部分。""你需要更丰富的社会化方式。""你不会希望它们教孩子粗鲁、咄咄逼人或先发制人,也不想训练出黑格尔主奴辩证法中的'主人'心态。" 超越社交媒体的“七宗罪”,升华人类本性: 霍夫曼回顾社交媒体如何利用人性的“七宗罪”来获取成功(如傲慢、嫉妒、愤怒)。他认为AI社交不应重蹈覆辙,而是应该试图升华和转化这些倾向,帮助人们成为更好的自己。平台应将社会和群体视为“客户”,考虑引入网络健康指标(如愤怒和极化程度),并积极缓解负面内容。 引用: "如果只想成功,那就投资一种或多种七宗罪。""作为技术专家,你不应该沉溺于这些罪,而应该试图升华它、转化它,帮助人们成为更好的自己。""LinkedIn从一开始就有不同的设计理念:我们是节省时间的,不是消耗时间的。我们希望你完成有用的工作任务..." 人类的独特性在于“进化的意识”: 面对AI能力的飞速发展和对人类特殊性的质疑,霍夫曼认为人类的核心价值和独特性可能在于其推动意识不断进化的使命。这是一种不断探索存在、意义和拓展认知边界的过程。即使AI在许多具体能力上超越人类,作为意识的承载者和进化推动者,人类可能扮演着无可替代的角色。 引用: "我们正在探索人类特殊性的旅程上。它可以从'我们是社会性生物'开始——但现在我们发现,人类不是唯一的社会性生物;也可以从'我们使用语言'开始——但我们也不再是唯一的语言使用者。""我们确实拥有(进化升级的)意识,这才是非常珍贵的...""这种让意识不断升级、突破边界的过程,可能就是人类在宇宙中的独特价值。" 通过技术变得“更人性”(Homo Technae): 霍夫曼引用柏拉图对书写的担忧来比喻当前对AI的恐惧,认为人类是“技术人”(homo technae),是工具制造者和使用者。技术是人类进化和认知发展的核心部分。每一次新的认知技术(如书写)的出现,都会带来对能力削弱的担忧,但最终都为人类提供了新的能力和认知空间。AI聊天机器人的互动性甚至克服了书写“无法回应”的局限性。 引用: "我想表明,自从有了文字,我们就对新技术有这些担忧。""人类是homo technae——是工具制造者和使用者。通过我们创造的工具,我们既不会变得不那么人性,也不会成为超人或后人类。我们变得更人性。""相对于反复阅读,我可以说:'我对《斐德若篇》有这个想法,那个问题?'这种互动性实际上能让你达到更深的理解。" AI可能催生新的“衍生认识论”: 霍夫曼探讨了AI可能带来的哲学范式转变,特别是“衍生认识论”的概念。当AI专家系统提供我们无法完全验证其推理过程的答案时,我们可能需要学会信任这些来自“更高”来源的知识,这甚至类似于宗教中的“启示”。这可能触及归纳、演绎和溯因之外的新推理形式。 引用: "这在哲学上会非常令人困惑。""这可能触及我们对归纳、演绎和溯因推理的理解之外的新推理形式...""是的,启示。在字面的宗教意义上,有一个我们通过某些方式信任的、高于我们的来源,向我们提供我们无法自己验证其证明的答案。" 拥抱技术未来,增强“超级能动性”: 霍夫曼将他的书命名为《超级代理》(Superagency),强调个体和群体在技术演进中积极塑造世界和自身道路的能力。这种能动性是集体性的,依赖于技术和我们在社会网络中的位置与互动。他认为我们应该“边飞边修建降落伞”,通过实际部署和体验来理解和塑造技术,因为人类想象力是有限的。面对存在性风险,他主张通过建立稳定的制度和技术来管理风险组合,而非单独暂停某项技术,并认为AI在降低整体风险方面可能发挥积极作用。 引用: "你在塑造周围世界和自己人生道路方面具有某种能力、控制力和主动的意志参与。""拥抱并帮助塑造它,这是人类提升的方式。""我的观点是,AI在降低整体风险方面实际上是积极的,特别是在应对流行病、气候变化,甚至小行星威胁方面。" 多中心治理与基准测试的“隐形”监管: 霍夫曼提出了“多中心治理”的概念,认为公司受到客户、股东、员工、媒体等多个相互关联网络的规范,这发生在正式监管之前。在AI领域,基准测试(衡量能力、安全和对齐)成为一种重要的“监管”形式,它不仅设定了最低标准,还提供了积极的规范性理想,并通过“安全创新”推动技术发展。 引用: "导致所有实体——个人、群体、社会——受到监管的,是这些相互关联的网络。""这些基准测试今天就存在,完全独立于监管机构,因为我们都在说:'我的产品比你的好,我有更好的安全和对齐基准。'"* 如何准备AI革命:善用工具是关键,文科生可能有优势: 霍夫曼建议个人应对AI转型的最重要能力是学会高效使用这些工具。他举例说明了AI在日常生活和研究中增强能力的潜力,同时也指出了AI的局限性(如“幻觉”)。他认为未来十年最重要的职业能力是“你使用这个工具的能力”。有趣的是,他提到由于AI的“黑箱”性质和对提示工程、文本交互的需求,拥有人文学科背景的人可能比工程师更有优势,因为他们更关注“代理是什么”、“提升是什么”以及AI如何融入人类社会。 引用: "绝大多数人,即使是深度使用聊天机器人的人,也不知道它们能做的所有事情。""未来十年最重要的高阶能力是:你使用这个工具的能力如何?""原因是,工程师并没有更好地理解AI内部发生了什么,因为它是黑箱性质的。所以很多优势来自提示工程和与文本的互动。""当我们思考AI如何提升人类时,人文学科的东西确实非常重要。" 总结:Reid Hoffman对AI的态度是务实且积极的。他承认AI带来的挑战和风险,但更强调将其视为人类进化旅程中的下一站。他呼吁个体和集体通过拥抱技术、善用工具,并以哲学和人文学科的视角思考AI与人类社会的关系,来增强自身的“能动性”,从而主动塑造一个更美好的未来。他独特的PayPal黑帮成员、哲学背景以及投资经验,使其对AI的哲学思考兼具深刻性与实用性。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
美国斯坦福大学“以人为本人工智能研究院”(HAI,Stanford Institute for Human-Centered AI)近日发布了其备受全球瞩目的第八版《人工智能指数报告》(AI Index Report 2025)。正如报告序言中所言,AI 正以前所未有的速度融入社会、经济和全球治理的方方面面。从先进模型的性能飞跃到日常生活的深度嵌入,从创纪录的产业投资到日益收紧的政府监管,AI 正从边缘走向中心,成为驱动商业价值、重塑科研范式乃至影响人类未来的核心力量。本报告核心要点包括: 1. 全球人工智能发展,特别是中美之间呈现白热化竞争态势,特别是在技术前沿领域,模型性能显著提升,中美顶尖模型的性能差距迅速缩小 2. 私有AI投资增长巨大,达到创纪录的2523亿美元,同时企业对AI的应用也在广泛普及,尽管在价值兑现方面仍处于早期阶段。 3.随着AI能力的增强,伦理与治理挑战日益突出,AI相关的负面事件激增,但全球政策制定者也加大了监管力度。 4. AI正在加速科学和医学领域的发现,其贡献获得了诺贝尔奖等顶级荣誉,FDA批准的医疗AI器械数量也呈现爆炸式增长。 5. AI教育正在普及,但存在鸿沟,而公众对AI的态度则呈现谨慎乐观与深刻分歧并存的局面,对AI公司的伦理信任度有所下降。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
《AI圆桌π》首期节目将呈现的是用AI(Notebook LM)技术生成的关于AI的播客(英文)。内容主要是谷歌前CEO埃里克·施密特(Eric Schmidt)在斯坦福大学讲座时分享的关于AI未来发展的独家观点。在这场访谈里,施密特深入探讨了人工智能的发展方向、全球科技竞争的未来,以及这些技术如何在短期内对社会、经济和国家安全产生深远影响。这次演讲因为内容敏感性引发诸多讨论,并曾一度被“全网删除” 核心观点摘要: 人工智能的短期突破与深远影响: 施密特预测,未来一到两年内,人工智能将迎来重要突破,尤其是在上下文窗口扩展、AI代理和文本到操作这三个领域的结合。这些技术进步将使人工智能系统能够更有效地处理复杂任务,超越当前的局限性。这种进步将不仅仅局限于技术领域,而是会深刻影响社会各个层面,包括教育、医疗、政府和商业。他强调,这些技术的发展可能带来的变革性影响,甚至可能比社交媒体的崛起对社会的影响更为深远。 全球科技竞争中的中美博弈: 施密特详细分析了美国和中国在人工智能领域的激烈竞争。他指出,美国目前在技术、人才和资源方面领先,但要维持这一优势,需要持续的高额投资和国际合作,特别是与加拿大等盟友的合作,以确保能源和资源的可持续供应。他强调,AI的未来不仅仅是技术竞赛,还是一场国家之间的战略博弈,涉及到国家安全、经济竞争力以及全球领导地位。施密特警告,美国需要加大投入,以应对中国在AI领域的迅速崛起,并保持在这一领域的全球主导地位。 科技巨头的垄断与创新挑战: 在讨论当前科技巨头的主导地位时,施密特指出,NVIDIA等公司在AI领域的垄断地位得益于其强大的技术能力和资本优势。他提到,虽然市场上存在竞争者,但挑战这些科技巨头的地位需要巨额投资和技术创新。他还对这些巨头如何在未来继续推动技术创新表示担忧,认为资本密集型的AI开发可能会导致软件开发模式的根本变化,从开源转向闭源,从而进一步巩固巨头的垄断地位。 人工智能对社会和劳动力市场的冲击: 施密特探讨了人工智能对社会、经济和劳动力市场的潜在影响。他认为,虽然AI技术可能会取代某些重复性工作,但它也会增强高技能工作的重要性,推动人们在复杂任务中的生产力提升。他还对人工智能可能带来的社会不平等表示担忧,指出富裕国家将从AI中获得更多利益,而贫穷国家可能会被甩在后面。此外,施密特呼吁加强对AI的监管,以应对数据隐私、知识产权和错误信息传播等问题。 对抗性人工智能与安全挑战: 施密特特别提到对抗性人工智能的潜在威胁,预测未来可能会有专门设计的AI系统用于攻击和破坏其他AI系统。这种发展将为安全性和伦理带来新的挑战。施密特建议,科技界和政府需要合作,研究如何防范这些风险,并制定相应的法规和技术标准,以确保人工智能的安全和可信度。他还提到,这一领域的研究将成为未来科技发展的一个重要方向,并可能在大学和研究机构中得到更多关注。 如果希望和主播建立联系,可加微信bonewe2004! 关于主播:
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧