2025年旧金山科技播客《Hard Fork》对OpenAI首席执行官Sam Altman和首席运营官Brad Lightcap进行了专访。此次访谈围绕OpenAI当前面临的重大挑战和未来展望展开,包括与《纽约时报》的版权诉讼、AI人才的激烈争夺以及与微软的合作关系。Altman和Lightcap在不到一小时的访谈中,对这些敏感话题做出了直接且深入的回应,引发了现场听众的强烈反响。 核心主题与要点 1. 版权战场:《纽约时报》诉讼与用户隐私的底线冲突 Sam Altman在访谈伊始便主动提及与《纽约时报》的版权诉讼,并将其核心归结为对用户权利的理解方式之争。他批评媒体“把 AI 当替罪羊”,并强调OpenAI在用户隐私和内容使用上将坚持“比法律更高的标准”。Altman的核心立场:“《纽约时报》这个真正伟大的机构,长期以来一直在坚持一个立场——哪怕用户是在隐私模式下对话,也应该被记录、被保存。我们反对这点,反对得非常明确。” OpenAI的伦理选择:Brad Lightcap补充道:“我们认为,AI 的未来会严重依赖用户对它的信任。” 这句话揭示了OpenAI对用户信任的重视,认为如果用户无法确定对话是私密的,就不会真诚使用AI助手。 AI的定位:Openman强调OpenAI致力于将AI打造成“用户的智能伙伴”,而非“一个背后偷偷记笔记、保留证据的系统”。这不仅是商业冲突,更是生成式AI作为工具还是记录者的根本性张力。 2. 百亿级抢人战:顶级AI人才的价值重塑 Meta为顶级AI研究员开出高达1亿美元的签约金,这笔报价“刷新了 AI 人才的市场价值记录”,标志着AI人才争夺战的白热化。资本的疯狂:Altman承认Meta的1亿美元报价是真实的,并感叹:“资本现在疯狂到没底线。” 他指出Meta正在大力扩建其“超级智能团队”,高薪从OpenAI、Anthropic、DeepMind等机构挖人。 OpenAI的回应与优势:Altman表示OpenAI的核心员工目前没有被挖走,并强调其内部对“长期使命感的重视,大过薪资对短期吸引力的影响”。Lightcap也表示“我们感觉良好”,表明OpenAI对留住人才有信心。 竞争的本质:这场“抢人大战”揭示了超级智能到来之前,各公司在人才维度上的竞争已然打响。谁拥有最理解模型、最会调教工具、最懂训练逻辑的人,谁才有可能走得更远。 3. 微软裂缝:合作关系进入“协议合作”模式 外界关注OpenAI与最大合作伙伴微软之间存在的“合作裂缝”传闻,包括OpenAI考虑举报微软的反竞争行为、调整公益架构以及微软希望扩张持股比例等。摩擦与稳固并存:Altman没有否认存在摩擦,他直言:“在任何深度合作中,都会有紧张点,我们当然有过这些。” 但他也强调与微软CEO萨蒂亚·纳德拉进行了良好通话,双方仍在规划“非常长期和有成效的合作未来”。 关系的转变:Lightcap指出,尽管微软是重要合作伙伴,但在业务快速扩张中难免会有不一致的目标。这表明OpenAI和微软之间的关系已从“亲密无间”转向更为成熟和现实的“协议合作”模式。 独立战略:Altman强调:“我们都是雄心勃勃的公司,自然会有一些冲突点。” 这句话暗示OpenAI不再只是依附微软的研究机构,而是拥有独立战略的超级AI公司。尽管有摩擦,但合作仍被双方高度重视,正努力“找出最可持续的合作方式”。 4. “事件视界”:AI进展已进入不可逆阶段 Altman引用其博客《温和的奇点》中的一句话——“我们已经越过了事件视界,起飞已经开始”,以此判断AI技术进展已进入无法回头的阶段。AI的普及:他指出,五年前人们还在嘲笑AGI(通用人工智能),而现在“我们手上已经有一个能做很多事的模型,而且任何人都可以直接使用”。这种使用方式的变化(从论文工具到直接使用ChatGPT)是巨大的转变。 “温和的奇点”:AI的影响不是一夜之间爆发的,而是“每天一点一点地渗透进工作、生活和决策中”。Lightcap也认同,AI不会突然变得比人聪明,而是“悄悄在发生”。 AI的角色转变:AI将从“工具”转变为“常驻的智能助理”,甚至是“第二个大脑”。Altman举例希望ChatGPT能自动阅读邮件、草拟回复,Lightcap则补充AI将是“随时待命”而非等待指令。OpenAI的构想是每个人未来都将拥有多个“o3副本”,主动思考用户需求。 5. AI取代谁?不是新手,是不会用的人 针对Anthropic的Dario Amodei关于未来1-5年50%白领入门岗位将消失的说法,Altman和Lightcap表示“不同意”。未见大规模裁员:Lightcap表示:“我们没有看到任何大规模裁掉初级岗位的证据。” 他指出,与企业合作的经验表明,真正让管理层焦虑的不是刚入职的年轻人,而是“工作方法早就固定下来的老员工”,原因在于他们“用不惯新工具”。 岗位未消,技能更替:Altman认为:“我们过去总担心 AI 会让人失业,但现在反而发现,很多公司说他们需要更多人——因为 AI 帮他们扩大了产品和业务的可能性。” 被替代的不是岗位本身,而是“拒绝升级的人”。 “工具带来的新分界线”:Lightcap观察到,年轻人已经习惯使用AI完成工作,而一些老员工仍在手动操作,这形成了“会用和不会用 AI 的人隔在了两边”的分界线,与年龄、资历、学历无关,只取决于是否愿意学习与AI合作。 历史的启示:Altman强调每次技术进步都会带来阵痛,但“人类总会找到新事做。我们永远想要更多,永远创造更多。” 因此,真正危险的不是新模型来了,而是“你还在用十年前的工作节奏”。 结语:AI与未来生活节奏 Altman在访谈尾声被问及孩子未来会有更多人类朋友还是AI朋友时,他表示希望是人类朋友,但AI将是“某种重要的陪伴”。这引出了访谈的根本问题:OpenAI正在构建一个怎样的未来?AI融入生活节奏:Altman和Lightcap描绘的不是纯粹的技术升级或算力竞赛,而是“一个真实在发生的生活版本未来”。他们急于解释和划清底线,是因为“窗口期真的在缩短”。 “AI 不再是你手边的工具,而是你生活节奏的一部分。” 这句话是核心洞察。它提醒普通人不需要成为工程师,但需要明白AI已经深度融入生活。 主动适应的重要性:你现在如何对待AI,很大程度上将决定它未来如何帮助你。这意味着,个人对AI的接纳和学习意愿将是未来生存和发展的关键。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码
核心主题与要点概览 本纪要根据萨姆·奥特曼(Sam Altman)在与弟弟杰克·奥特曼(Jack Altman)的访谈内容整理而成,深入探讨了他对未来5-10年AI发展的最直接预判。核心主题包括AI推理能力的突破及其对科学发现的影响、人形机器人的兴起、对“超级智能悖论”的担忧、OpenAI的“AI伴侣”生态系统愿景、Meta在人才争夺战中的挑战,以及对能源和太空开发的看法。 1. AI推理突破:从博士水平到科学发现的飞跃 奥特曼指出,OpenAI的O3模型在推理能力上已达到“优秀的博士生”水平。他强调,真正的颠覆将是AI“发现新科学的能力”,并认为这种能力的影响将“压倒一切其他应用”。 现状与突破:“O3已经相当聪明了,人们会说‘哇,这就像一个优秀的博士生’。”模型现在能在特定领域进行推理,其水平相当于该领域的博士。 进展速度:奥特曼承认,“去年的进步比我预想的要快。” 首个突破领域:他预测天体物理学可能成为AI首个实现自主新发现的科学领域,原因在于“有大量数据,但没有足够的博士来分析它们。” 标志性成就:AI在世界顶级数学竞赛中获得最高分,以及解决专家级博士才能处理的问题,将是推理突破的标志。 2. 人形机器人:物理世界“未来已来”的标志 奥特曼将人形机器人视为“终极梦想”,并预测在5到10年内,我们将看到“非常出色的人形机器人走上街头”。他认为这将是真正让人感受到“未来已来”的时刻,区别于ChatGPT带来的体验。 终极梦想:“人形机器人是梦想,显然我真的很在意这个。我认为我们最终会实现的。” 视觉冲击与习惯:“如果你走在街上,一半是机器人,你会立即习惯吗?我不知道。可能你会,但感觉会很不一样。” 质的变化:与ChatGPT等软件AI不同,人形机器人将带来“真切地感受到未来已来”的体验,而ChatGPT“仍然没有这种感觉”,因为它仍“被困在过去的个人电脑形态中。” 3. 超级智能悖论:技术进步与社会停滞的隐忧 尽管对AI技术发展充满信心,奥特曼却提出了一个令人深思的“超级智能悖论”,即“即使我们成功创造出超级智能,这个世界也可能不会因此变得更好,社会可能依然糟糕。” 核心担忧:“如果出了什么问题,我会说我们构建了真正的超级智能,但它并没有让世界变得更好,没有像听起来那样改变很多东西。” 技术图灵测试悖论:奥特曼对此感到困惑:“你可以让这个东西为你做这些令人惊奇的事情,但你的生活方式和两年前基本相同,工作方式也和两年前基本相同。”他推测,即使出现IQ高达400的AI,情况也可能依然如此。 与ChatGPT的类比:他指出,ChatGPT的出现虽然强大,但并未根本性地改变人们的生活方式,这与他设想的超级智能的潜在影响相呼应。 4. OpenAI的未来蓝图:无处不在的“AI伴侣”生态系统 奥特曼描绘了OpenAI的宏大愿景:构建一个无处不在的“AI伴侣”生态系统,它将“存在于虚空中,通过所有这些界面和所有这些产品以各种方式帮助他们(用户)。” 核心产品形态:“我认为消费者最终想从我们这里得到的是一个AI伴侣,缺乏更好的词汇,它存在于虚空中,通过所有这些界面和所有这些产品以各种方式帮助他们。” 全方位服务:这个AI伴侣将“了解你和你的目标以及你想要完成的事情和你的信息。”用户将通过多种方式与之互动,包括ChatGPT内部聊天、娱乐导向版本、与平台集成的其他服务以及新的设备。 无缝连续性:奥特曼强调了平台无处不在的重要性,它意味着“成为一个一切都整合到其中并整合到各处的平台。所以当你在车里或使用其他网站时,都是完全的连续性。” 5. Meta的人才争夺战与企业文化对比 奥特曼透露了Meta对OpenAI的人才攻势,以“上亿美元的签约奖金,每年超过这个数额的薪酬”疯狂挖角。但他对Meta的策略和文化提出了批评。 Meta的攻势:“我听说Meta认为我们是他们最大的竞争对手。他们开始向我们团队的很多人提供这些巨额报价,比如一亿美元的签约奖金,每年超过这个数额的薪酬。这太疯狂了。” 对Meta策略的批评:“我认为大量前期保证薪酬的策略,以及以此作为告诉某人加入的理由,真正专注于此而不是工作和使命的程度,我不认为这会建立一个伟大的文化。” 文化差异:奥特曼认为OpenAI的特别之处在于“我们设法建立了一种善于可重复创新的文化”,而Meta“不认为他们是一家擅长创新的公司。” 竞争认知:他提到一个有趣现象,“曾经在Meta工作的人告诉我,在世界其他地方,人们认为ChatGPT是Google的替代品。但在Meta,人们认为ChatGPT是Facebook的替代品,因为人们与它交谈的方式原本会用于其他方式,他们更喜欢它更多时间。” 6. 能源与太空:AI驱动的新征程 面对AI算力引发的能源担忧,奥特曼表现出强烈信心,认为“历史证明生活质量与能源丰度正相关”,并强调聚变与先进核能是必要解决方案。 能源信心:“我毫不怀疑人类将消耗更多能源。” 解决方案:“聚变发电相当可能实现,第四代裂变技术如Oklo公司的方案同样重要。” 终极方案与太空:他认为“终极方案是太空能源”,因为“地球能源使用量增长10倍就会导致过热,我们必须开发太阳系资源。”他展望:“但我希望最终人类消耗的能源远超我们在地球上能够产生的。即使我们完全转向核聚变,如果你将地球当前的能源使用扩大10倍或100倍,我们只是因为废热而过度加热地球。但我们有一个很大的太阳系。” 个人定位:当被问及是否会创办火箭公司时,奥特曼表示“我更信任专业公司完成此事,OpenAI需聚焦核心使命。我已经相当忙了。” 总结 萨姆·奥特曼的访谈描绘了一个AI驱动的未来,其中智能模型将突破推理极限,发现新科学,人形机器人将成为日常景观。尽管他对技术进步充满信心,但其对“超级智能悖论”的担忧也反映出对社会影响的深刻思考。OpenAI致力于构建无处不在的“AI伴侣”生态,同时面临着激烈的人才竞争。长远来看,能源的充足供应,乃至利用太空资源,将是支撑AI时代发展的关键。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码
本简报文档旨在深入解读《人民日报》于2025年6月10日刊登的对华为首席执行官任正非的访谈内容,提炼其关于企业发展、国家未来、基础研究、技术挑战与机遇等方面的核心观点,并分析其背后所蕴含的哲学思想与战略洞察。 主要主题与核心观点 1. 应对外部挑战与困难:实干与斗争 任正非在面对外部封锁和打压时,强调“没有想过,想也没有用。不去想困难,干就完了,一步一步往前走。” 他认为“实干兴邦”是中国传统文化,也是发展的支撑。面对困难,唯有坚定不移地“干下去、斗争下去,才有出路”,空想和让步只会导致失败,甚至成为“第二个日本”。这与毛主席“打得一拳开,免免百拳来”的气概一脉相承。 2. 技术差距与弥补策略:谦逊、自信与多样性 尽管昇腾芯片面临风险警告,任正非展现了清醒的自我认知和战略自信。他指出“美国是夸大了华为的成绩,华为还没有这么厉害…我们单芯片还是落后美国一代”。然而,他同时提出弥补策略:“我们用数学补物理、非摩尔补摩尔,用群计算补单芯片,在结果上也能达到实用状况。” 这体现了华为在技术路径选择上的灵活性和创新性,即通过多技术方案的融合来弥补单一维度的不足。 3. 核心困难与未来突破口:教育培养与人才梯队建设 任正非认为当前的主要困难并非技术本身,而是“在我们的教育培养、人才梯队的建设…”。他深刻洞察到软件“卡不住脖子,那是数学的图形符号、代码,一些尖端的算子、算法垒起来的,没有阻拦索”,这暗示了软件领域的自主可控性。他提出,真正的突破在于“突破现有西方基础知识体系,避开其专利等束缚,实现真正的创新突破”,并且强调“‘造不如买’是最大的战略错误、是幻想;没有自己本质的东西,制裁可以随时到来。” 这凸显了国家层面在人才培养和基础创新上的战略紧迫性。 4. 应对赞誉与批评:清醒与理性 面对外界的赞扬,任正非表现出高度的清醒:“说我们好,我们压力也很大。骂我们一点,我们会更清醒一点。” 他认为“只要讲真话,即使是批评,我们也支持。” 强调企业应“把自己做好”,并呼吁国家对“真正的骂”要鼓励支持,对“恶意诽谤”则应坚决打击。这种理性对待毁誉的态度,是企业持续发展和创新的内在动力。 5. 基础研究的战略地位:国家希望与长期主义 任正非将基础理论研究视为“国家未来的希望”和“根基”。他指出,“当我国拥有一定经济实力的时候,要重视理论特别是基础理论的研究。” 因为“如果不搞基础研究,就没根。即使叶茂,欣欣向荣,风一吹就会倒的。” 他强调基础研究的周期性(“10年、20年或更长的时间”)和非功利性(“不考核”),并呼吁社会对理论科学家保持“战略耐心”和“宽容”,国家应给予“实际地支持”,包括资金、人才以及创新财政和企业支出、成果共担共享机制,以避免“赶不上美国”。他以罗登义、屠呦呦、黄大年等为例,说明基础研究的伟大贡献往往需要时间才能被 fully 理解和认可。华为的“黄大年茶思屋”正是这种长期主义投入的体现,作为非盈利网络平台,旨在开放喇叭口,与院校合作,促进基础研究信息的共享。 6. 社会主义市场经济的优势:社会效益与基础设施建设 任正非认同中国社会主义道路在基础设施建设上的独特优势。他指出,高铁、高速公路、水坝等“并不赚钱,但垫起一个发达的社会基础,为工业、农业现代化作出了贡献”,这体现了“国有企业的社会价值”。他明确表示:“社会主义的一个目的就是为了发展社会。” 这与资本主义追求“发展资本”形成对比,凸显了社会主义制度以人为本、注重整体社会效益的本质。 7. 人工智能的未来与中国优势:电力、网络与行业专家 任正非将人工智能视为“人类社会最后一次技术革命”(或与核聚变并列)。他认为中国在人工智能发展上具有诸多优势,包括“数亿青少年”这一人才基石,以及“充足的电力、发达的信息网络”等技术支撑。更重要的是,他强调“算法不掌握在IT人手里面,而是掌握在电力专家、基建专家、煤炭专家、医药专家、各类行业专家……手里面。”这意味着人工智能的真正落地和创新,依赖于各行各业的实践专家将数据转化为知识和模型,从而诞生“很多中国模型”。 8. 制造业的强大与开放:高质量、高效率与智能化 任正非认同弗里德曼对中国制造业的评价:“中国制造业像今天这样强大的原因,不仅在于它的高质量,能更便宜地生产东西,也在于它能更快、更好、更智能地生产东西,而且正在越来越多地将人工智能融入产品中。” 他强调“国家越来越开放,开放会促使我们更加进步。” 相信在党的领导下,中国将逐步形成统一大市场,最终“突破所有的封锁,实现伟大的复兴”。 9. 促进民营企业发展:法治化与市场化 任正非明确提出,民营企业发展需要国家提供“法治化、市场化,政府依法依规行政”的支持。他认为企业应聚焦于“价值创造、技术突破,遵纪守法,依法纳税”,这样才能形成“和谐的发展模式,就会让经济活力一点点地散发出来”。 结论与启示 任正非的访谈为中国企业和国家未来的发展提供了宝贵的战略指引。其核心思想可概括为: * 坚定实干与斗争:面对外部压力,放弃空想,唯有行动才能破局。 * 深耕基础与人才:技术瓶颈的根本解决之道在于教育培养和基础理论研究的突破。 * 长期主义与战略耐心:基础研究回报周期长,需国家、社会、企业形成合力,给予科学家充分的宽容和支持。 * 理性开放与自信:清醒认知自身优劣,积极拥抱开放,以创新弥补不足。 * 社会主义的制度优势:在关键基础设施和公共服务领域,社会主义制度能更好地实现社会效益,奠定国家发展的基石。 * 赋能千行百业:人工智能的未来在于与各行业深度融合,发挥行业专家的主导作用。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码
* 摘自“ChatGPT之父”伊尔亚多伦多大学最新毕业演讲:当AI做得比你好,人类还剩下什么?我们该怎么办? 主要主题与核心观点: 伊尔亚·苏茨克维(Ilya Sutskever),OpenAI联合创始人兼前首席科学家,在多伦多大学的毕业典礼上发表了一场关于AI对人类未来影响的演讲。他强调了AI将全面超越人类能力的必然性,并提出了在这一巨变时代下,个体和社会应如何应对的核心观点。 1. 接受现实,专注于当下与未来 伊尔亚的第一个建议是“接受现实,不沉迷后悔过去,专注于当下可以做的事。” 他指出,人们常常陷入“如果我当时不那样就好了”或“这事太不公平了”的思维,但这只会将人困在过去。他自己的经验表明,当他放下“如果当初…”,转而思考“好吧,事情已经这样了,那我现在最好的下一步是什么?”,问题反而变得简单。这一建议不仅针对毕业生,更是对身处时代剧变中的每个人的提醒。 2. AI将能学会人类所能学会的一切 伊尔亚提出了一个大胆但逻辑清晰的论断:“人类有大脑,大脑是一种生物计算机。所以没道理计算机做不到大脑能做的事。只要是人类能学会的事,AI迟早也能学会。” 他认为,既然大脑是生物计算机,那么作为人造计算机的AI最终也能复制甚至超越大脑的功能。当前的AI已经展现出对话、写作、绘画、编程甚至生成视频的能力,这预示着AI未来将取代或合作完成人类的所有工作。 3. 最剧烈的变化尚未到来 伊尔亚认为,当前的AI进展仅仅是“开始改变一些事情”,真正的颠覆性变革仍在未来。“我们其实正处在人类历史上最奇怪的时间之一。不只是工作方式会变,连‘做人’这件事本身,都会被重新定义。” 他预言,未来AI将成为“我们所有工作的替代者,甚至合作者”,并且“一旦AI开始自己优化AI,技术进步会进入一个指数级飞跃”,这将带来前所未有的剧变。 4. AI是人类可能面临的最大挑战 伊尔亚将AI的挑战分为两个层面: * 职业层面: 哪些技能仍然有价值?哪些行业将被取代?这是许多人已经感受到的切身问题。 * 社会选择层面: 这是更深层次的问题。“真正的问题是,我们想用AI来做什么?是更多的经济增长?更快的研发?更强的控制?谁来定义AI的目的,谁来控制AI的行为?” 他警示道,就像政治迟早会找上门一样,AI的影响更是无人能避。 5. 不需要懂AI,但必须关注它 伊尔亚强调,虽然不要求每个人都成为AI专家,但“你不能不看它”。他认为,目前很多人对AI的未来仍停留在“想象”阶段,但“再过一年、两年、三年,你看到它能做到的事情,就再也骗不了自己说‘这没什么’了。” 届时,人们将亲眼目睹AI的能力,并不得不做出选择和回应。他总结道:“你喜欢也好,不喜欢也好,AI都会深刻地影响你的人生。但理解它、关注它、思考你想用它来做什么,才是更重要的。” 这不仅是对毕业生的忠告,也是对所有人的“时代提醒”,即在AI时代,最需要学习的或许是“理解这个世界的方式,和选择成为怎样的人的能力”。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码
核心观点 Google DeepMind 首席执行官、诺贝尔奖得主德米斯·哈萨比斯在伦敦 SXSW 大会上强调,AI正在加速替代旧有工作岗位,但同时也将催生“全新的、非常有价值的工作”。他预测,未来5-10年,懂得与AI协作的人将进入职场红利期,并指出数学、物理、计算机等STEM学科背景的人才将更受欢迎,而非传统MBA。 AI带来的变革规模 哈萨比斯明确表示,这并非灾难,而是提醒人们“要学会和它一起工作”。AI正在“接手”大量重复性、流程化、标准明确的工作任务,例如: 招聘岗位: 简历筛选、面试安排。 基础编程: 模板代码编写、接口文档查询。 文案编辑: 初稿生成、结构润色。 DeepMind内部已能用AI完成视频生成、代码编写等复杂任务,效率甚至高于新手程序员。微软、Meta、亚马逊等公司也已在大量岗位中引入AI协作,重塑入门级职能。哈萨比斯归纳了AI时代的三类高价值新工种,它们的核心是与AI的深度协作,而非简单使用工具: 1. AI 协作师(AI Workflow Orchestrator) 定义: 不亲自编写代码或开发模型,而是**“调动AI去做事的人”**。他们懂得如何下达清晰任务、判断AI输出的可靠性,并跟进AI的工作进度,在必要时进行人工完善。 核心能力:理解AI能力的边界(能做什么,不能做什么)。掌握与AI沟通的技巧(例如:提示词设计)。具备判断AI输出结果准确性的能力。 典型工作: “AI营运”、“提示设计”、“任务协调员”等。 哈萨比斯洞察: AI应从“回答问题”升级为“完成一件事”,例如自动处理电子邮件。他表示愿意为这样的AI工具支付高昂费用,这凸显了这类角色在提升效率方面的巨大价值。 2. 科学合作者(Scientific Collaborator) 定义: AI不再是辅助工具,而是**“一起破题的人”**。这类人与AI共同提出科学假设、搜索和交叉比对资料,甚至让AI自行设计验证方案,再由人类检查成果。 核心能力:具备一定的数学和领域专业知识。能快速理解AI工具的优劣势。拥有强烈的问题意识和“打破常规”的勇气。 典型案例: DeepMind的AlphaTensor独立发现50年未改进的基础数学运算新方法;AlphaFold在18个月内预测了2亿个蛋白质结构,远超人类过去几十年总和。 3. AI 伦理专员(AI Safety & Ethics Officer) 定义: 面对AI的快速发展,“我们不能等到出事才来修规则”。这类专员负责提前思考AI可能被误用、滥用的风险,主动测试模型的漏洞和潜在歧视,并为特定应用场景制定AI的底线和使用规范。 核心能力:像技术专家一样找漏洞(好奇心、逻辑性)。像监管者一样立规矩(责任感)。像心理学家一样考虑人类如何使用AI。 DeepMind实践: 设立“红队”(Red Team)机制,在模型上线前进行“故意捣乱”测试,以发现偏见、错误信息或敏感内容。 哈萨比斯警示: “AI不是原子弹,但也不是微波炉。它是新一类技术,不能套用旧模板。” 该岗位是所有AI部署的“保险垫”,尤其在高敏感场景(医疗、金融、教育)中至关重要。国内大厂也已开始招聘“模型安全测试工程师”、“AI伦理分析师”等岗位。 职场转型:升级你的AI组合力 哈萨比斯强调,AI不是工具,而是合作者。普通人应“要能和AI共事,而不仅仅是使用它”。他给出以下四条建议,构建“学好基础 → 掌握工具 → 解决实际问题”的发展路线: 优先选择理工(STEM)类学科: 数学、物理、计算机是理解AI底层能力、训练优化模型、掌握工具和自动化流程的关键。LinkedIn报告显示,数学、计算机、物理是AI人才增长最快的关键技能。 亲自试用AI工具,越多越好: 亲身实践是理解AI能力边界的最佳方式。未来的工作模式是“你给出目标,AI跑完整流程” 适应变化,而非被流程框死: 具备快速理解新工具并调整工作方式的“适应性(Adaptability)”至关重要。岗位职责会随着AI迭代而不断演变。 找回科学、人文和哲学的连接点: 在追求技术优化的同时,更要思考AI应解决哪些问题、为什么解决。这需要跨学科理解、价值判断和人文关怀。 总结 哈萨比斯的演讲指出,未来的工作模式不再是“人对机器”,而是**“人和AI一起解决更复杂的问题”。关键在于将AI视为“合作者”而非“工具”。下一代人才的核心技能将是“懂工具 × 懂合作 × 懂机会”**,即:能分解任务、指挥AI、与AI配合试错、与不同人协作,并能看清哪个问题值得解决。这“三类新工种”——执行者(AI协作师)、合作者(科学合作者)、监管者(AI伦理专员),共同构成了AI时代协作链上的三种关键角色,代表着人类与AI搭档时必须学会切换的三种身份。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播: 加入听友群,请扫二维码
主要主题和核心思想: 本文由人工智能领域的知名专家吴恩达撰写,文章强调了人工智能技能日益增长的重要性,将其比作新的读写能力,并详细阐述了职业发展的关键步骤、所需的技术技能、项目工作的重要性以及求职策略。 核心观点提炼: 1. 编码(特别是为AI编码)是新的读写能力。 就像过去的语言读写能力一样,编程能力正变得越来越普遍和重要,尤其是在与机器交流和从数据中提取知识方面。人工智能和数据科学的应用远超传统软件工程,几乎适用于任何产生数据的领域。 2. 3. 职业发展包括三个主要步骤:学习基础技能、从事项目工作、找到工作。 这些步骤是相互关联且贯穿职业生涯的。人工智能领域的特点在于技术的快速发展、与非AI专家的合作需求以及对AI技能和职位看法的差异。 4. 5. 有前途的AI职业需要掌握关键的技术技能,包括基础机器学习、深度学习、相关数学和软件开发。 学习是一个持续的过程,应优先学习最重要的主题,并通过结构化的课程和持续实践来加深理解。 6. 7. 数学是AI的基础,理解算法背后的数学有助于调试和优化。 然而,掌握必要的数学知识应根据具体工作需求分清轻重缓急。随着技术成熟,所需的数学深度也在变化。 8. 9. 成功的AI项目需要识别有价值的业务问题,头脑风暴解决方案,评估可行性和价值,确定里程碑和预算资源。 项目工作是获取经验和建立作品集的关键。 10. 11. 选择项目时应考虑职业目标,从小处着手,利用业余时间或副业,并考虑项目的技术挑战性、队友以及能否成为更大项目的基石。 在项目执行中有“准备,瞄准,开火”和“准备、开火、瞄准”两种风格,应根据情况选择。 12. 13. 建立一个能展示技能进步的项目组合对于找工作至关重要。 沟通和领导力技能同样重要,它们能帮助你解释项目价值并指导团队。 14. 15. 找工作有一个基本框架,包括选择公司、准备面试、选择职位和协商薪资。 对于从其他领域进入AI的人来说,逐步转换角色或行业可能更容易。信息面试是一种非常有价值的工具,可以了解目标职位和公司。 16. 17. 成功找到合适的AI工作需要关注基本要素(简历、项目组合、面试表现),保持尊重和负责任的态度,慎重选择团队和公司,并积极寻求社区的帮助。 18. 19. 在人工智能领域建立事业还需要关注团队合作、网络(建立社区)、个人纪律和利他主义。 这些非技术因素对长期成功至关重要。 20. 21. 冒名顶替综合症在AI领域很常见,不应阻碍个人成长。 承认不擅长是精通的第一步,寻求导师或同行的支持,认识到自己的优点,并帮助他人可以有效应对这种感觉。 22. 最重要的事实和数据: * AI的应用几乎可以在任何产生数据的情况下找到。 * 职业发展的三步骤:学习基础技能、从事项目工作、找到一份工作。 * 基础机器学习技能包括线性回归、逻辑回归、神经网络等。 * 深度学习是重要的技术领域,需要了解基本知识和实践技能。 * 相关的数学领域包括线性代数、概率和统计、微积分。 * 软件开发技能,特别是Python及其相关库(TensorFlow, PyTorch, scikit-learn),非常重要。 * 大约70%的人在某个时候会经历某种形式的冒名顶替综合症。 * 典型的人类寿命大约是2万到3万天左右(文章以27,649天为例)。 结论: 吴恩达的这篇文章为在快速发展的人工智能领域建立成功的职业生涯提供了宝贵的路线图。它不仅强调了掌握技术技能的重要性,也突出了项目实践、人际交往、社区建设、个人纪律和克服心理障碍等方面的关键作用。文章传递的核心信息是,人工智能领域的门是敞开的,通过持续学习、实践、寻求支持和积极参与社区,任何人都有机会在该领域实现有意义的职业发展。将人工智能视为新的读写能力,并采取有条不紊的步骤,将有助于个人在这个激动人心的领域中找到自己的位置并做出贡献。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
“务必要疯狂地怀抱雄心,且还要疯狂地真诚”——梁文峰 “真正的差距不是一年或两年,而是原创和模仿之差”——梁文峰 “一定有办法对价格建模”——詹姆斯·西蒙斯(James Simons) 从金融炼金术到AGI圣杯,85后梁文锋用7个月打造出月活破亿的DeepSeek,其公司开源模型DeepSeek-R1被西方媒体称为"人工智能的斯普特尼克时刻"。在硅谷,DeepSeek被称作“来自东方的神秘力量”,因为它的若干独到之处:-不烧钱补贴而是有利润的运营模式/创始人量化投资而非科技的行业背景/创始人梁文峰几乎很少出现在公众视野中。2024年7月梁文峰曾接受媒体采访,阐明了其创立和经营Deepseek的若干关键问题。 •引发价格战的起因及其看法:详细阐述DeepSeek V2如何通过史无前例的性价比(每百万token仅1块钱)引发价格战,梁文锋对此感到意外,并认为大厂的跟进是互联网时代的烧钱补贴逻辑。同时,DeepSeek降价的主要目的并非抢用户,而是因为成本先降下来了,并且认为AI应该是普惠的。 •技术创新与架构层面的突破:详细介绍DeepSeek V2采用的MLA架构(显著降低显存占用)和DeepSeekMoESparse结构(极致降低计算量),这些创新促成了成本的下降。强调这种架构创新在国产大模型公司乃至全球开源基座大模型中都属罕见,并且Attention架构多年未被成功修改,DeepSeek是“逆行者”。讨论中国公司之前为何很少涉足架构创新(成见、不划算)。 •DeepSeek的独特道路与理念:它是中国7家大模型创业公司中唯一一家放弃“既要又要”路线,只专注研究和技术、未做toC应用的公司。也是唯一未全面考虑商业化、坚定选择开源且未融过资的公司。这种选择基于认为最重要的是参与全球创新浪潮,以及认为中国不应一直搭便车,也应成为技术贡献者。讨论原创和模仿的差距是真正的差距。 •开源与护城河:阐述在颠覆性技术面前,闭源的护城河是短暂的。DeepSeek把价值沉淀在团队成长、积累Know-how、形成创新组织和文化上,这是他们的护城河。开源是一种文化行为,给予是一种额外的荣誉,有文化的吸引力。他们不会闭源。 •人才与组织文化:梁文锋认为并没有奇才,都是本土的年轻人。他们不执着于海外挖人,希望自己打造人才。MLA创新的Idea来自年轻研究员的个人兴趣。DeepSeek的组织方式是自下而上、自然分工,不前置分工,通过热爱和好奇心筛选人才。对卡和人的调集非常灵活,每个人调用训练集群的卡无需审批,可灵活调用所有人。 •对中国AI、AGI及产业未来的看法:认为中国AI不可能永远处在跟随位置。中国创新不缺资本,缺的是信心和组织高密度人才有效创新的能力。创新需要好奇心和创造欲。认为Scaling Law符合预期,AGI可能会在2-10年内实现。押注数学和代码、多模态、自然语言本身这三个AGI方向。认为未来的大模型产业将是基础模型公司和应用公司专业分工的格局。中国的产业结构调整将更依赖硬核技术创新,未来硬核创新会越来越多。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
日期: 2025年5月17日 (CBS访谈日期) 受访者: Geoffrey Hinton (杰弗里·辛顿),AI教父,曾获得2024年诺贝尔物理学奖。 核心主题: Hinton 对 GPT-4 的实际使用方式、他对 AI 目前能力和局限性的看法,以及他警示的三大核心风险(生成幻觉、推理黑箱、责任漂移)以及如何防范这些风险。 Hinton “每天都在用 GPT-4”,他将其视为一个高效的工具,并认为 GPT-4 “几分钟能干我很多工作”,GPT-4 “足够强大,回答迅速,表达通顺,信息覆盖广”,能给出“像模像样的”回应。他常用的三种使用方式: 起草初稿: 让 GPT-4 生成研究备忘的初稿。 反向质询: 要求 GPT-4 扮演“刁钻审稿人”,逐句寻找错误。 数据补全: 导入外部数据和最新论文,让 GPT-4 补全推理链和证据链。 核心局限性: Hinton “最怕它哪天‘装懂’——把漏洞包成逻辑递进,还骗得我信以为真。”他强调,GPT-4 “没有判断对错、教你思考” 的能力。Hinton 将 GPT-4 视为一个**“有用但不可托底的助手”**,而不是一个有判断力的合作者或老师。 “助手可以加速,但不会纠正。老师才会告诉你哪错了。”GPT-4 “不会说‘我不确定’”,“不会标出自己的逻辑漏洞”,也“不会阻止你采纳一个看似正确、实则错误的答案”。Hinton 通过一个关于 Sally 姐妹数量的逻辑题演示了 GPT-4 的一个“根本缺陷” “Sally有三个兄弟,每个兄弟都有两个姐妹。 那Sally有几个姐妹?” 它在处理主语关系和常识判断时存在问题,“没意识到Sally自己是其中之一”。他认为 GPT-4 不是“推理”出来的答案,而只是“预测”你想听什么答案。这就像“一辆生锈的车,上面刷了一层厚漆”,表面光鲜但底层结构有漏洞。GPT-4 “在各个领域都懂一点,都不精通”,它善于“给出答案”,但“答案 ≠ 理解”。 AI 使用中的三大核心风险 (Hinton 警示): 生成幻觉 (Hallucination): GPT 的问题在于“它错得太像对了”。它会生成流畅自然的答案,但其中可能混入编造的事实或错误的逻辑,且不会提醒用户“我不确定”,容易让人误信。 推理黑箱 (Reasoning Black Box): GPT “自己也说不清‘为什么这么回答’”。它没有透明的推理链或中间过程,用户甚至开发者都难以理解其决策逻辑。 责任漂移 (Responsibility Drift): 当 AI 生成的内容出错导致不良后果时,责任难以界定。“是你错了,还是模型错了?GPT 不会承担后果,但你可能要为它的失误买单。” 防范风险的“人工安全阀”与使用建议: Hinton 没有提出“停下使用” AI 的建议,他自己也在用,但他强调需要设置“人工安全阀”,即用户需要自己来“踩刹车”。给使用者的“刹车清单” (个人层面):AI 输出结果后,永远先问自己两个问题: -“它是否跳过了必要的逻辑链条?” -“这个结论有没有‘太顺了’?是不是你想听的?” 给组织/机构的建议: -不让 AI 直接影响结果,只允许影响过程。 -所有 AI 输出必须有“人类最后一审”,即“不是 AI 把关你,而是你最后把关 AI”。 -在重要系统(教育、医疗、法律等)中,不允许“默认相信 AI”。 Hinton 的核心观点是:“用,是为了效率;懂,是为了安全。”他强调,GPT “不知道它在说什么,问题在于你以为它知道。”“真正危险的不是 AI 说错了什么, 而是你——没有意识到它其实不懂。”对未来 AI 的展望与态度,Hinton 提到:“最终 AI 会在所有领域都变得非常专业。” (但目前不是) 他对 AI 的使用态度是:“不是拒绝它,而是引导它。” 总结: Hinton 在这次访谈中,分享了他作为 AI 领域顶尖专家对 GPT-4 的实际使用体验和深刻洞察。他肯定了 GPT-4 在提高效率方面的巨大价值,但也尖锐地指出了其“装懂”、缺乏真正理解和判断能力的核心局限。通过警示生成幻觉、推理黑箱和责任漂移这三大风险,Hinton 强调,用户不应将当前的 AI 视为无所不知的老师或有判断力的合作者,而应将其视为一个高效但不可全信的助手。他呼吁所有使用者,无论是个人还是组织,都必须保持警惕,设置“人工安全阀”,对 AI 的输出进行批判性审查和最终把关,才能在享受 AI 带来便利的同时,避免被其“看似懂”的表象所误导。Hinton 本人的使用方式——依赖中保持警惕,怀疑但不拒绝——为我们提供了一种务实且安全的 AI 使用范式。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
谷歌 I/O 2025 开发者大会简报会议日期与地点: 2025年5月20日(周二)至21日(周三),山景城海岸线圆形剧场 核心主题: 人工智能(AI)在谷歌全线产品中的深度整合与范式转移,特别是搜索从“回答问题”向“执行任务”的转变。 AI 核心能力提升与产品线扩展: Gemini Ultra: 谷歌最高级别的人工智能访问订阅服务(目前仅限美国),月费 249.99 美元。包含访问 Veo 3 视频生成器、Flow 视频编辑应用、Gemini 2.5 Pro Deep Think 模式(即将上线)等。提供更高使用额度的 NotebookLM 和 Whisk,以及 Chrome 中的 Gemini 聊天机器人、部分 Project Mariner 代理工具、YouTube Premium 服务以及 Google Drive、Google Photos 和 Gmail 的 30TB 存储空间。 Gemini 2.5 Pro 的 Deep Think 模式: Gemini 旗舰模型的“增强型”推理模式,能在回答前考虑多个答案,提升特定基准测试表现。已通过 Gemini API 向“可信测试人员”开放。 Veo 3 视频生成模型: 能够生成音效、背景噪音和对话,质量比 Veo 2 有提升。通过文本或图像提示使用。已向 AI Ultra 订阅用户开放。 Imagen 4 图像生成器: 速度比 Imagen 3 更快,未来计划推出快 10 倍的变体。能渲染精细细节(如织物、水滴、动物皮毛),支持写实和抽象风格,生成高达 2K 分辨率的图像。Veo 3 和 Imagen 4 将支持 Flow 应用。 Gemma 3n: 设计用于在手机、笔记本电脑和平板电脑上“流畅运行”的模型,支持处理音频、文本、图像和视频。已提供预览版。 Lyria RealTime: 为实验性音乐制作应用提供动力的 AI 模型,现已通过 API 开放。 SynthID Detector: 使用 SynthID 水印技术帮助识别人工智能生成内容的验证门户。 搜索范式重构:“AI 模式”与“任务助手” 核心理念转变: Google 搜索不再仅仅是返回链接集合,而是通过 AI 直接理解用户意图并执行多步骤任务。“搜索框不重要了,接下来 Google 会直接帮你把事办了。”(Sundar Pichai 语) AI 模式(AI Mode): Google 搜索的新界面,不是展示答案,而是“自动帮你完成任务”的系统。它能分析复杂意图(审美、家庭结构、预算等),展示可视化选项,推荐对应商品/服务,并自动回答相关问题。用户无需点击链接或跳转页面。 底层技术:Query Fanout + Gemini 2.5 多步推理。 用户一次提问,系统在后台分拆成几十个子问题,调用多个数据库、商业图谱、地图系统等,综合生成结构化的完整答案和行动建议。这是从“展示网页”到“直接完成任务”的转变。 Project Mariner: 谷歌最重要的“动手能力”系统,是全新的底层代理系统,负责“你说目标,它来执行”。它能浏览和使用网站,处理多达近十二项任务,例如代用户购买棒球比赛门票或在线购买杂货,无需用户访问第三方网站。“这不是推荐网页,也不是展示结果——它是真正去干活。”(Rajan Patel 语)具有 Teach & Repeat(学习&重复)机制,用户演示一次,系统就能学会并在之后自动执行相似任务。被定义为谷歌正在构建的通用 AI 执行代理。 AI 模式的深入应用: 支持在体育和金融查询中使用复杂数据,为服装提供“试穿”选项。未来将支持根据手机摄像头实时捕捉的内容提问(Search Live)。 Gemini 搜索的体验: 直接给出结果,甚至生成图表、建议和决策路径。例如,查询棒球数据可自动生成对比图表;查询适合独自就餐的餐厅可生成结构清晰的可视化清单。搜索不再只是找到信息,而是像一位私人顾问,给出结构化答案和可执行方案,甚至具备“自己检查答案”的能力。 AI 应用与交互的扩展: Gemini 应用更新: 月活跃用户超过 400 万。Gemini Live(摄像头和屏幕共享功能)本周面向所有 iOS 和 Android 用户推出,支持与 Gemini 近乎实时的语音对话并流式传输摄像头/屏幕画面,由 Project Astra 提供支持。未来几周将更深入集成 Google 地图、Google 日历和 Google 任务。Deep Research 将支持用户上传私人 PDF 和图像。 Project Astra: 谷歌的低延迟多模态人工智能体验,将为搜索、Gemini 应用和第三方开发者产品提供新体验。源自 Google DeepMind,旨在展示近乎实时的多模态 AI 能力。能从用户看到的场景中主动理解并提供回应,“摄像头成了新‘搜索框’”。正在与三星和 Warby Parker 等合作伙伴开发 Project Astra 眼镜,将搜索带向“随时在场”的状态。 AI 模式(AI Mode): Google 搜索的实验性功能,允许用户通过 AI 界面提出复杂的、多部分的问题。 Chrome 中的 Gemini: 将引入新的人工智能浏览助手,帮助用户快速理解网页内容并完成任务。 开发者工具与平台更新: Stitch: 人工智能工具,通过生成用户界面元素和代码帮助用户设计网页和移动应用前端。用户可以通过文本或图像提示创建应用界面,并获取 HTML 和 CSS 标记。 Jules: 旨在帮助开发者修复代码错误的 AI 代理,扩大了使用范围,可帮助理解复杂代码、创建拉取请求、处理待办事项和编程任务。 Wear OS 6: 为磁贴引入统一字体,支持动态主题(Pixel 手表),使应用外观更简洁。发布设计指南和 Figma 设计文件,核心是帮助开发者构建更好的自定义功能和无缝过渡效果。 Google Play: 加强 Android 开发者功能。提供处理订阅的新工具、主题页面、音频样本,以及更流畅的附加销售结账体验。电影和电视剧的“主题浏览”页面(目前仅限美国)将连接相关应用。开发者获得专门的测试和发布页面工具,以及在出现严重问题时暂停实时发布的功能。订阅管理工具升级支持多产品结账和订阅附加项一次性支付。 Android Studio: 集成新的人工智能功能,包括与 Gemini 2.5 Pro 同步推出的“Journeys”(“代理人工智能”功能)和“Agent Mode”(处理更复杂开发流程)。增强应用质量洞察面板中的“崩溃洞察”功能,由 Gemini 驱动,分析源代码以识别崩溃原因并建议修复。 战略意义与核心观点: 搜索的底层重构: 谷歌正在将搜索从一个信息查找工具转变为一个任务执行系统。用户不再是输入关键词寻找答案,而是表达目标,由 AI 系统自动理解、分拆任务、调用资源并完成执行。“搜索不再‘回答问题’后,谁还能抓住用户?”这个问题成为焦点,答案是谁能把“问答”变成“办事”。 AI 执行代理是新平台入口: Project Mariner 等代理系统的出现意味着 AI 不再只是内容工具,而是进入了“实质执行”的角色。谁能负责“理解用户目标 → 调用资源执行 → 给出结果”,谁就能接管下一个时代的产品控制权。这是一种新的“平台税”收取方式。 从“功能框”到“任务流编排”: 产品设计思维需要从构建独立功能转向编排复杂的任务流程。Google 的整套产品(Gemini 应用、AI Mode、Project Mariner、Chrome Gemini)正在重新串联用户决策链,使平台能够调度资源并自动完成任务。 AI 的具身化与环境感知: Project Astra 和 Gemini Live 表明,AI 正走出屏幕,通过摄像头和传感器理解现实世界。“它能理解你在看什么、说什么、做什么,并主动出手。”(Demis Hassabis 语)。未来的搜索入口可能是摄像头或智能眼镜,AI 能够根据视觉线索和语境提供实时、情境化的信息和帮助。Gemini 正在从一个语言模型转变为一个世界模型。 开发者面临的挑战与机遇: 随着搜索和 AI 平台逻辑的改变,开发者需要思考如何将自身产品与新的 AI 执行入口对接。谁能率先打造“任务执行入口”,谁就能成为新平台定义者。目前的挑战在于任务链重构(从点击功能转向调度目标)和调用协议联通(形成“模型 × 应用 × 权限”的统一调度机制)。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
核心主题: 本文探讨了沙特阿拉伯正在通过国家战略,从石油经济转向AI基础设施建设,旨在成为全球AI计算能力的中心。文章强调了AI正在从技术和模型竞赛转变为国家级基础设施建设,并分析了美国科技巨头为何积极参与沙特的AI部署。 主要要点和重要事实: AI作为国家级基础设施: · AI革命的主战场正在从“软件战争”转向“建AI工厂”,AI已成为如同电力和互联网一样的基本基础设施。引用黄仁勋的原话:“AI,就像电力和互联网一样,是每个国家的基本基础设施。” · 模型训练不再是研发行为,而是工业行为,需要统筹电力、冷却、数据集成等国家级整合能力。AI的落点从“模型”转变为“供给”,关键在于谁有能力连续、稳定、可控地生产智能。 沙特的AI战略与Humain公司: · 沙特政府宣布成立国有AI全价值链公司HUMAIN,由主权基金PIF全资控股,目标是打造全球AI工业基地。 · Humain的首期部署计划包括配备1.8万颗NVIDIA Blackwell芯片,落地一座500兆瓦级AI超级数据中心,并预计5年内扩展到1.9吉瓦规模,构成全球最大“主权AI训练工厂”之一。沙特希望建设的不是一家OpenAI,而是一个AI国家基础设施提供商。 · Humain的结构设计极具战略性:完全主权架构,没有IPO,将企业、平台、模型和产业链全部纳入国家部署,由王储担任主席,国家安全委员会直接领导。 · 沙特的目标是成为AI自主模型的输出国、算力出口的新枢纽和系统级能力的主权承包方。这是沙特复制“阿美公司模式”,利用重资产布局打造全球定价能力的尝试。 马斯克的系统演示: · 在沙特-美国投资论坛上,特斯拉Optimus机器人跳舞吸引眼球。马斯克展示的不是单一技术,而是覆盖通信、交通、劳动力的“AI操作系统”,即战略级操作系统的雏形。 · 引用马斯克的话:“我们正在走向一个完全不同的世界,我预测最终将会有数百亿个人形机器人。”、“就像每个人都有自己的 C3PO 或 R2-D2,那将非常棒。” · 马斯克通过故事、场景和实物演示(如机器人跳舞)来构建信任和展示未来图景。他提出AI的未来更可能是《星际迷航》,推荐《文化》系列小说作为设想。 美国科技公司在沙特的部署: · 多家美国科技公司正在沙特进行集体“落户”,将算力、芯片、数据、运营系统直接迁入。已确认的投资和部署包括: · Salesforce:投资5亿美元,支持沙特AI基础设施和应用层合作。 · AWS(亚马逊云):投资53亿美元,建设本地数据中心与AI云平台。 · Groq(NVIDIA竞品):获得15亿美元支持,扩展AI芯片交付能力。 · Google与IBM:已在沙特设立地区AI中心并扩展本地团队。 · Blackstone:公开表示要成为全球AI基建的最大金融投资者之一。 · 美国公司愿意迁入沙特的原因在于其提供的工业级可部署条件,包括顶层设计、土地、电力、冷却系统、数据集成以及国家级的推进标准。 · 引用AWS投资负责人的话:“这是全球为数不多,能以国家级标准推进 AI 工厂建设的地区。” · 引用Google Cloud方面的话:“沙特正在成为中东 AI 枢纽,我们需要在这里落下根。” 对中国的启示与挑战: · 中国在AI公司数量、研究人员、训练数据和模型发布速度方面全球领先。但沙特已经在规划和建设整体化“AI工厂”,而中国的讨论焦点似乎仍集中在“AI应用”层面,存在“部署节奏”上的差距。沙特采取的是不等模型突破,直接上系统部署,先建基础设施再接入模型的策略。 · 关键问题包括:中国能否打造自己的“主权AI工厂”?谁来承担系统级整合商角色?是继续“百模大战”还是统一部署“AI新基建”?是否拥有“组织AI系统”的能力,而非仅是使用AI模型的能力?AI工业革命的窗口期正在快速收窄,关键在于谁能构建整体生态并统筹落地。 结论: AI正在从“工具竞争”走向“产业建设”,从“公司创新”走向“国家部署”。沙特不是在参与技术,而是在落地一整套工业战略:用主权主导算力,将AI工厂视为国家级生产设施;用国家公司Humain统一管理数据、芯片、模型、云平台;将AI视为与石油一样的战略资产。AI工业革命的开场不在论文或实验室,而是在沙漠里。未来的竞争属于“能把整体生态构建起来”的一方,真正的挑战在于谁来定义生态、统筹落地并给出“AI时代的组织施工图”。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
来源: 尤瓦尔·赫拉利在东京庆应义塾大学的讲座摘录,《人类简史》作者尤瓦尔:当今世界最大的危险是人类互不信任,却信比碳基生命进化快百万倍的AI,我们拒绝真相,因为它昂贵复杂和痛苦 日期: 春季(具体日期未注明,推测与新书《智人之上》日文版宣传有关) 讲者: 尤瓦尔·诺亚·赫拉利(Yuval Noah Harari),以色列历史学家,著有《人类简史》、《未来简史》、《今日简史》等。 主持人: 伊藤公平(Kohei Itoh),庆应义塾大学校长。 核心主题: · AI成为当前人类面临的最优先和最严峻的威胁。 · AI的本质是“能动者”而非“工具”,其异类性使其难以预测和控制。 · AI的飞速发展与人类社会缺乏互信形成巨大悖论。 · 信息洪流时代,教育的重点应从知识传授转向辨别真相。 · 重建人类之间的信任是应对AI挑战的最迫切任务。 · 二战后的国际秩序正在瓦解,AI竞赛加剧了地缘政治风险。 · 算法和社交媒体正在改变人类合作基础——共享叙事和信任。 · 维护言论自由与规范信息传播,禁止“伪造人类”至关重要。 · AI正在改变战争决策权,可能带来危险后果。 · 阴谋论的流行源于真相的复杂性和虚构的简单性。 · AI将以前所未有的方式改变娱乐内容创作,带来“异类”创造。 · 信任是生命的基石,也是应对AI时代的最终解方。 主要观点和重要事实: AI威胁优先级的提升: 赫拉利修正了其在《今日简史》中提出的三大威胁(核战、生物技术、信息技术/AI)的优先级。如今,AI风险被认为远高于核威胁和生物技术威胁。 AI发展速度远超生物技术: AI的迭代速度极快,可能是“几天”,而生物技术的“代际”周期长达二三十年。AI的数字进化比有机进化快“数百万倍”。 AI是“异类威胁”: 与核威胁的危险性显而易见不同,AI的危险难以把握,因为它是一种“异类的威胁”。AI并非邪恶,但其与人类智能完全不同,难以预测。 AI是第一个“能动者”技术: 赫拉利强调,AI是人类有史以来创造的第一个作为“能动者”而非单纯“工具”的技术。它可以在没有人类干预的情况下自行决策和创造。 AI竞赛中的信任悖论: 领导AI研发的公司和国家都因不信任竞争对手而加速发展,但他们却表现出对正在开发的超级智能AI的高度信任,这种对比“濒临疯狂的边缘”。 人类互信的重要性与崩溃: 尽管人类在历史上建立了大规模互信的能力,但近一二十年间这种信任正在瓦解,部分原因是新技术中介了人类交流。 教育的使命:从知识传授到辨别真相: 在信息爆炸时代,教育机构的任务不再是提供信息,而是教导人们如何在海量信息中找到“真相”,并区分可靠和不可靠的来源。 “精英”的再定义与服务型精英的培养: “精英”是一个被滥用的词汇,问题不在于精英是否存在,而在于他们是“服务型精英”还是“自私自利型精英”。大学的使命应是培养服务于社会福祉的精英。 国际秩序的瓦解与战争风险: 二战后强国不随意入侵弱国的国际秩序正在瓦解,各国军事预算回升,这种趋势加剧了全球冲突风险,也阻碍了AI监管。 共享叙事与算法的挑战: 人类通过共享故事进行大规模合作(如金钱),但算法和社交媒体正在成为新的“故事版本”生产者和传播者,人们的信任正从人类机构转向算法。 禁止“伪造人类”的必要性: 作为维护人类信任的最简单一步,政府应立法禁止算法或机器人冒充人类身份。AI与人类交流时必须表明其AI身份。 区分“言论自由”与“信息自由”: 言论自由是赋予人类的权利,信息自由是赋予算法和机器人的权利。社交媒体公司通过算法故意传播谎言和仇恨的行为不应受到言论自由的保护,应被制止和惩罚。 AI改变战争决策: 虽然杀伤仍主要由人类执行,但AI正越来越多地决定战争中的目标选择和关键决策,这带来了极大的危险。 阴谋论的根源在于复杂性: 阴谋论的流行是因为它们提供简单叙事,而真相(如病毒和流行病)往往是复杂、昂贵和痛苦的。 AI将带来“异类”娱乐内容创作: AI能以更低的成本和更高的效率生产娱乐内容,并能“突破人类想象力的局限”,创造出人类自身想不到的全新形式和内容。 信任是生命的基石和最终解方: 尽管面临诸多挑战,赫拉利强调,信任是生命的基础,没有信任无法生存。重建人类互信是安全发展AI并应对未来挑战的关键。 结论与展望: 赫拉利对AI带来的挑战持谨慎甚至忧虑态度,特别是强调了AI的“能动者”和“异类”本质以及人类社会日益缺乏互信的危险叠加。他认为,AI竞赛和国际秩序的瓦解互为加剧,共同构成了人类历史上的巨大挑战。然而,他并非完全悲观,相信只要人类能在AI完全成熟之前重建足够的互信并采取行动(如立法禁止伪造人类、区分言论自由与信息自由),仍有可能以安全的方式驾驭AI革命。教育机构在培养服务型精英和教导学生辨别真相方面具有重要作用。最终,他将信任视为应对当前和未来挑战的核心,是生命赖以维系的基石。他强调,每个人在自己的领域内尽力贡献微小的能动性,共同努力,人类社会仍有希望安然度过这一转型时期。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
简报:Reid Hoffman关于AI哲学和超级能动性 核心主题:本访谈围绕AI时代下的人类角色、技术与社会的互动、以及个体和集体如何在新格局下保持和增强“能动性”(Agency)。霍夫曼强调AI不仅是技术工具,更是深刻改变社交、认知和人类存在方式的新媒介层。他呼吁拥抱变化,主动塑造未来,并从历史、哲学和人类本性的角度探讨了AI带来的机遇与挑战。 AI作为新的社交媒介层: 霍夫曼预测未来我们将生活在被AI代理(agents)环绕的场域中。AI将不仅仅是聊天机器人,而是渗透到所有社交互动中的中介者。这类似语言、互联网或社交礼仪对人类互动的影响,形成一个由无数AI代理构成的无处不在的“场域”,深刻改变我们的社交方式。 引用: "人们总是因为聊天机器人而把AI看作是一对一的互动,就像是我和我的聊天机器人对话,类似谷歌搜索。但实际上,在未来几年内,我们将生活在一个被代理(agents)包围的场域中。"..."所有这些社交互动现在都将有一个由代理组成的中介场域。" 警惕AI拟人化与社会化: 霍夫曼强调在使用AI代理(如Pi)时必须小心拟人化问题。AI应增强而非替代人类关系。我们需要发展新的社交词汇和规则来区分与AI和人类的互动。对于儿童与AI的互动,他特别强调AI的社会化培养,避免培养出“主人”心态。 引用: "我们必须小心AI的拟人化(anthropomorphication)问题。"..."它不想取代你的人际关系,它想成为你社交互动全景中的一部分。""你需要更丰富的社会化方式。""你不会希望它们教孩子粗鲁、咄咄逼人或先发制人,也不想训练出黑格尔主奴辩证法中的'主人'心态。" 超越社交媒体的“七宗罪”,升华人类本性: 霍夫曼回顾社交媒体如何利用人性的“七宗罪”来获取成功(如傲慢、嫉妒、愤怒)。他认为AI社交不应重蹈覆辙,而是应该试图升华和转化这些倾向,帮助人们成为更好的自己。平台应将社会和群体视为“客户”,考虑引入网络健康指标(如愤怒和极化程度),并积极缓解负面内容。 引用: "如果只想成功,那就投资一种或多种七宗罪。""作为技术专家,你不应该沉溺于这些罪,而应该试图升华它、转化它,帮助人们成为更好的自己。""LinkedIn从一开始就有不同的设计理念:我们是节省时间的,不是消耗时间的。我们希望你完成有用的工作任务..." 人类的独特性在于“进化的意识”: 面对AI能力的飞速发展和对人类特殊性的质疑,霍夫曼认为人类的核心价值和独特性可能在于其推动意识不断进化的使命。这是一种不断探索存在、意义和拓展认知边界的过程。即使AI在许多具体能力上超越人类,作为意识的承载者和进化推动者,人类可能扮演着无可替代的角色。 引用: "我们正在探索人类特殊性的旅程上。它可以从'我们是社会性生物'开始——但现在我们发现,人类不是唯一的社会性生物;也可以从'我们使用语言'开始——但我们也不再是唯一的语言使用者。""我们确实拥有(进化升级的)意识,这才是非常珍贵的...""这种让意识不断升级、突破边界的过程,可能就是人类在宇宙中的独特价值。" 通过技术变得“更人性”(Homo Technae): 霍夫曼引用柏拉图对书写的担忧来比喻当前对AI的恐惧,认为人类是“技术人”(homo technae),是工具制造者和使用者。技术是人类进化和认知发展的核心部分。每一次新的认知技术(如书写)的出现,都会带来对能力削弱的担忧,但最终都为人类提供了新的能力和认知空间。AI聊天机器人的互动性甚至克服了书写“无法回应”的局限性。 引用: "我想表明,自从有了文字,我们就对新技术有这些担忧。""人类是homo technae——是工具制造者和使用者。通过我们创造的工具,我们既不会变得不那么人性,也不会成为超人或后人类。我们变得更人性。""相对于反复阅读,我可以说:'我对《斐德若篇》有这个想法,那个问题?'这种互动性实际上能让你达到更深的理解。" AI可能催生新的“衍生认识论”: 霍夫曼探讨了AI可能带来的哲学范式转变,特别是“衍生认识论”的概念。当AI专家系统提供我们无法完全验证其推理过程的答案时,我们可能需要学会信任这些来自“更高”来源的知识,这甚至类似于宗教中的“启示”。这可能触及归纳、演绎和溯因之外的新推理形式。 引用: "这在哲学上会非常令人困惑。""这可能触及我们对归纳、演绎和溯因推理的理解之外的新推理形式...""是的,启示。在字面的宗教意义上,有一个我们通过某些方式信任的、高于我们的来源,向我们提供我们无法自己验证其证明的答案。" 拥抱技术未来,增强“超级能动性”: 霍夫曼将他的书命名为《超级代理》(Superagency),强调个体和群体在技术演进中积极塑造世界和自身道路的能力。这种能动性是集体性的,依赖于技术和我们在社会网络中的位置与互动。他认为我们应该“边飞边修建降落伞”,通过实际部署和体验来理解和塑造技术,因为人类想象力是有限的。面对存在性风险,他主张通过建立稳定的制度和技术来管理风险组合,而非单独暂停某项技术,并认为AI在降低整体风险方面可能发挥积极作用。 引用: "你在塑造周围世界和自己人生道路方面具有某种能力、控制力和主动的意志参与。""拥抱并帮助塑造它,这是人类提升的方式。""我的观点是,AI在降低整体风险方面实际上是积极的,特别是在应对流行病、气候变化,甚至小行星威胁方面。" 多中心治理与基准测试的“隐形”监管: 霍夫曼提出了“多中心治理”的概念,认为公司受到客户、股东、员工、媒体等多个相互关联网络的规范,这发生在正式监管之前。在AI领域,基准测试(衡量能力、安全和对齐)成为一种重要的“监管”形式,它不仅设定了最低标准,还提供了积极的规范性理想,并通过“安全创新”推动技术发展。 引用: "导致所有实体——个人、群体、社会——受到监管的,是这些相互关联的网络。""这些基准测试今天就存在,完全独立于监管机构,因为我们都在说:'我的产品比你的好,我有更好的安全和对齐基准。'"* 如何准备AI革命:善用工具是关键,文科生可能有优势: 霍夫曼建议个人应对AI转型的最重要能力是学会高效使用这些工具。他举例说明了AI在日常生活和研究中增强能力的潜力,同时也指出了AI的局限性(如“幻觉”)。他认为未来十年最重要的职业能力是“你使用这个工具的能力”。有趣的是,他提到由于AI的“黑箱”性质和对提示工程、文本交互的需求,拥有人文学科背景的人可能比工程师更有优势,因为他们更关注“代理是什么”、“提升是什么”以及AI如何融入人类社会。 引用: "绝大多数人,即使是深度使用聊天机器人的人,也不知道它们能做的所有事情。""未来十年最重要的高阶能力是:你使用这个工具的能力如何?""原因是,工程师并没有更好地理解AI内部发生了什么,因为它是黑箱性质的。所以很多优势来自提示工程和与文本的互动。""当我们思考AI如何提升人类时,人文学科的东西确实非常重要。" 总结:Reid Hoffman对AI的态度是务实且积极的。他承认AI带来的挑战和风险,但更强调将其视为人类进化旅程中的下一站。他呼吁个体和集体通过拥抱技术、善用工具,并以哲学和人文学科的视角思考AI与人类社会的关系,来增强自身的“能动性”,从而主动塑造一个更美好的未来。他独特的PayPal黑帮成员、哲学背景以及投资经验,使其对AI的哲学思考兼具深刻性与实用性。 如果希望和主播建立联系/加入听友群,可加微信bonewe2004! 关于主播:
与播客爱好者一起交流
添加微信好友,获取更多播客资讯
播放列表还是空的
去找些喜欢的节目添加进来吧