时长:
45分钟
播放:
2,796
发布:
7个月前
主播...
简介...
本期节目主要讨论AI如何被讲述、被理解、被接受,以及被信仰。
这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。
本期主播
Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录
00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念
* Noema:意识活动所指向的对象或内容,即经验的意义部分。
* Noesis:与Noema相对应,Noesis指的是意识活动本身,即赋予经验意义的过程或行为。
* Hylomorphic Model:认为任何物理实体都是形式(Form)与质料(Matter)的结合。形式赋予事物其特性,质料则是构成事物的材料。
* SETI(搜寻地外智能):指的是寻找地外智慧生命存在证据的科学努力,主要通过接收和分析来自太空的信号来探测可能的外星文明。
* Frontier AI Risk:高度先进的基础模型可能具备的危险能力,足以对公共安全构成严重风险。
* Red Team(红队):在人工智能安全领域,红队指的是通过模拟真实世界攻击来测试AI系统的防御能力,以发现和修复潜在的漏洞。
* 可解释性AI:指一套方法和流程,使人类用户能够理解和信任机器学习算法的结果和输出,旨在提高AI决策过程的透明度。
* AI Agent:指能够自主执行任务、进行决策,并与环境交互的人工智能系统或程序,通常用于完成特定的目标或任务。
* 技术性消失:指人类劳动在技术包装下被“隐形化”的过程,即技术的发展使得背后的人类劳动变得不可见或被忽视。
* 《悬崖》(The Precipice):由哲学家托比·奥德(Toby Ord)撰写的书籍,探讨了人类在未来可能面临的生存风险,以及如何确保人类文明的长期存续。
* 《幽灵工作》(Ghost Work):由玛丽·L·格雷(Mary L. Gray)和西达斯·苏里(Siddharth Suri)合著,揭示了在数字经济中,被技术平台隐藏起来的大量临时工和零工劳动者的现状,探讨了他们的工作条件和社会影响。
* 去蔽:让被遮蔽的存在重新显现出来,从而通向更本真的理解。
👤
提到的人物
* Bruno Latour:科学社会学与“行动者网络理论”提出者
* Geoffrey Hinton、Yoshua Bengio:AI领域“教父”级人物,积极参与AI伦理与风险讨论
* 朱松纯:北京大学AI研究院教授,提醒AI从学术问题转为社会问题的认知挑战
* 朱啸虎:著名投资人
* Mary Gray:《幽灵工作》作者,微软研究院研究员
* Amba Kak:科技政策研究所AI Now执行董事
* Sarah Walker:天体物理学家
* Benjamin Bratton:加州大学圣地亚哥分校的技术哲学与思辨设计教授
📚
参考资料
1. Rees, T. (2025). Why AI Is A Philosophical Rupture. Noema. Retrieved from www.noemamag.com
2. Fernandes, E., Evtimov, I., Kohno, T., et al. (2019). In London? See our work on Adversarial Machine Learning at the Science Museum. Tech Policy Lab, University of Washington. Retrieved from techpolicylab.uw.edu
3. OpenAI. (2023). Frontier AI Regulation: Managing Emerging Risks to Public Safety. OpenAI. Retrieved from openai.com OpenAI+1OpenAI+1
4. Helfrich, G. (2024). The Harms of Terminology: Why We Should Reject So-called “Frontier AI”. AI and Ethics. Retrieved from link.springer.com SpringerLink+1SpringerLink+1
5. Anthropic. (2025). Progress from our Frontier Red Team. Anthropic. Retrieved from www.anthropic.com Home
请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
可信AI交通路标实验
📚
BGM:
片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin
* 小宇宙:智幻时刻Fungimind
* Apple Podcasts:智幻时刻Fungimind
* QQ音乐:智幻时刻Fungimind
* Spotify:智幻时刻Fungimind
* Email: [email protected]
* 小红书:Fungimind_AI治理蘑菇
这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。
本期主播
Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录
00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念
* Noema:意识活动所指向的对象或内容,即经验的意义部分。
* Noesis:与Noema相对应,Noesis指的是意识活动本身,即赋予经验意义的过程或行为。
* Hylomorphic Model:认为任何物理实体都是形式(Form)与质料(Matter)的结合。形式赋予事物其特性,质料则是构成事物的材料。
* SETI(搜寻地外智能):指的是寻找地外智慧生命存在证据的科学努力,主要通过接收和分析来自太空的信号来探测可能的外星文明。
* Frontier AI Risk:高度先进的基础模型可能具备的危险能力,足以对公共安全构成严重风险。
* Red Team(红队):在人工智能安全领域,红队指的是通过模拟真实世界攻击来测试AI系统的防御能力,以发现和修复潜在的漏洞。
* 可解释性AI:指一套方法和流程,使人类用户能够理解和信任机器学习算法的结果和输出,旨在提高AI决策过程的透明度。
* AI Agent:指能够自主执行任务、进行决策,并与环境交互的人工智能系统或程序,通常用于完成特定的目标或任务。
* 技术性消失:指人类劳动在技术包装下被“隐形化”的过程,即技术的发展使得背后的人类劳动变得不可见或被忽视。
* 《悬崖》(The Precipice):由哲学家托比·奥德(Toby Ord)撰写的书籍,探讨了人类在未来可能面临的生存风险,以及如何确保人类文明的长期存续。
* 《幽灵工作》(Ghost Work):由玛丽·L·格雷(Mary L. Gray)和西达斯·苏里(Siddharth Suri)合著,揭示了在数字经济中,被技术平台隐藏起来的大量临时工和零工劳动者的现状,探讨了他们的工作条件和社会影响。
* 去蔽:让被遮蔽的存在重新显现出来,从而通向更本真的理解。
👤
提到的人物
* Bruno Latour:科学社会学与“行动者网络理论”提出者
* Geoffrey Hinton、Yoshua Bengio:AI领域“教父”级人物,积极参与AI伦理与风险讨论
* 朱松纯:北京大学AI研究院教授,提醒AI从学术问题转为社会问题的认知挑战
* 朱啸虎:著名投资人
* Mary Gray:《幽灵工作》作者,微软研究院研究员
* Amba Kak:科技政策研究所AI Now执行董事
* Sarah Walker:天体物理学家
* Benjamin Bratton:加州大学圣地亚哥分校的技术哲学与思辨设计教授
📚
参考资料
1. Rees, T. (2025). Why AI Is A Philosophical Rupture. Noema. Retrieved from www.noemamag.com
2. Fernandes, E., Evtimov, I., Kohno, T., et al. (2019). In London? See our work on Adversarial Machine Learning at the Science Museum. Tech Policy Lab, University of Washington. Retrieved from techpolicylab.uw.edu
3. OpenAI. (2023). Frontier AI Regulation: Managing Emerging Risks to Public Safety. OpenAI. Retrieved from openai.com OpenAI+1OpenAI+1
4. Helfrich, G. (2024). The Harms of Terminology: Why We Should Reject So-called “Frontier AI”. AI and Ethics. Retrieved from link.springer.com SpringerLink+1SpringerLink+1
5. Anthropic. (2025). Progress from our Frontier Red Team. Anthropic. Retrieved from www.anthropic.com Home
请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
可信AI交通路标实验
📚
BGM:
片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin
* 小宇宙:智幻时刻Fungimind
* Apple Podcasts:智幻时刻Fungimind
* QQ音乐:智幻时刻Fungimind
* Spotify:智幻时刻Fungimind
* Email: [email protected]
* 小红书:Fungimind_AI治理蘑菇
评价...
空空如也
小宇宙热门评论...
一株罗汉松
7个月前
北京
3
36:55 终于有人关注到这个领域了,讲的很专业,可解释性AI未来会越来越重要的
大象想有创造力
7个月前
北京
3
32:39 说的太好了,每次看到AI界“奥本海默”的类比都让人觉得很微妙
Joslyn08
7个月前
北京
3
13:06 “人力投入的技术性消失” 触动很深,最近在做ai agent课题研究,企业对产品的介绍、宣传中常为突显数字劳动力的全流程自主性,弱化该岗位中原本人力劳动者的角色存在。
讲得好赞,对AI技术发展多了新的理解与审视!
slavezero
7个月前
北京
2
很棒的单口,国内这样的反思和讨论比较稀缺。
00:17 开篇对“谁在主导AI的叙事?这是认知之争还是权力之争?”的讨论,让我想归纳为“有组织叙事”,也对比国内近年来提的较多的“有组织科研”。
01:44 用二元思维去理解,我理解这也是一种偏西方的思维。
14:09 前沿AI风险的提出,与 x-risk(生存风险, existential risk)和 c-risk(灾难性风险, catastrophic risk)有紧密关联,但又有意识地回避了那种“世界末日”式的悲观色彩和高度争议性。可以说,它在风险语言的光谱中,处于一种“模糊但可接受”的中间带。方便作为政策制定的“问题定义”出发点,企业也可以借此展现责任感。我个人最警惕的是“谁”来定义“什么”算是前沿AI风险。
18:37 “全球AI治理联盟”不确定你是如何定义的。如果你指的是AISI Network,我理解英美接近同盟,但欧盟并不算同盟,更像是被英美“渗透”,例如在GPAI CoP部分。
26:24 存在风险叙事的真相,不能简单定义为“硅谷叙事”,或“顶尖科学家的担忧”,同意有更复杂的“哲学”背景。
31:25 对科技精英自比奥本海默的道德幻觉的评论,很有意思。AI能力和安全的前沿都在同一批AI实验室,可能并不是巧合。让我想到了历史上最具颠覆性(热核武器)和最具建设性(计算机)的人类发明出现在完全相同的时期,也并不是巧合,他们被同一群人所设计。
39:57 可解释性AI不等于可信AI,前者只是后者的一小部分
22:44 压轴放上全场我最喜欢的一句,“当我们采用他所锚定的术语的同时,也就意味着我们接受了他背后的世界观和权力机制,这种术语选择也重新塑造了我们的认知框架。”
自镜
7个月前
江西
1
39:26 从新认识人类(日心说,存在)
春日烂漫
7个月前
广东
1
很喜欢主播的分享
HD1011013z
7个月前
四川
1
热潮中难得的冷静和理性,说的真好!
LynkonNova
7个月前
广东
1
内容质量很高的宝藏播客
李知锦
7个月前
浙江
1
30:33 对个人成就和资源控制的充分渴望,以及对规则的彻底背叛
四夕_lfQh
7个月前
美国
1
这一期单口好棒。
打完就跑带着鸡腿
7个月前
北京
1
00:08 哇!!!喜欢这个领域!!!期待主播的持续更新!!!!b
自镜
7个月前
江西
0
22:17 将人工智能风险从眼下应用的不平等聚焦到未来的预测上
自镜
7个月前
江西
0
40:42 可解释性AI
Djfuehdbg
6个月前
北京
0
35:11 35:00 AI狂热时代需要另一种叙事,尤其是国内的声场,请继续说~听到真菌震惊了一下,最近在读《菌络万象》就说到了黏菌在最优路径探查上的能力(会让人echo神经网络),以及《它们没大脑,它们有智能》这本,推荐阅读,可以感受到异于人类/人工智能、非显性但根基深远的其它智能形态,也会反思我们一直以来对“智能”的定义是否过于人类中心了(扯远了(才发现博客icon是蘑菇,好喜欢