Album
时长:
45分钟
播放:
2,709
发布:
5个月前
简介...
https://xiaoyuzhoufm.com
本期节目主要讨论AI如何被讲述、被理解、被接受,以及被信仰。
这两天,李飞飞领导的斯坦福大学以人为本人工智能研究所(Stanford HAI)发布了《2025 年人工智能指数报告》,这份长达 456 多页的报告显示,在2024年,AI更大程度地融入到了日常生活中。
全球的科技政策制定者们不再只是在讨论人工智能,更积极地投资人工智能。巴黎行动峰会之后,安全不再是AI治理领域最核心的议题。而为了抢夺全球AI发展的先发优势,各国科技公司也开启了“Beta即推送”的竞赛。
可以说,半成品是我们的时代症候群:人们被迫接受尚未成熟的产品、系统和服务,与之共存,并承担代价,进而加强社会结构性的焦虑。
这是一场迟来的节目介绍,也是一个邀请。我们从一个牧区少年的故事讲起,穿越政策、商业与哲学的边界,进而分析AI的前沿风险概念为何被提出?为何“安全”成为科技主流政策讨论的遮蔽?又是谁制造了“未来风险”的想象。
本期主播
Zhuoran:AI治理研究者,重点关注科技法和STS领域,拥有财经媒体和云计算&AI行业的交叉从业背景,并参加过多个AI Safety治理研究项目。
📘
内容目录
00:17 一个问题的产生:谁在主导AI的叙事?这是认知之争还是权力之争?
01:07 拉图尔的警示:我们的二元思维陷阱
03:09 技术焦虑:登船还是被淹没?
04:26 "半成品社会"的来临:AI的新应用为何能在短时间内风靡全球,甚至存在不成熟的情况被广泛推广?
05:45 入场:技术乌托邦背后具体的人:14岁藏族少年的故事
09:28 一支打动我的科技广告:Behind the Mac
10:46 《幽灵工作》作者告诉我:什么是创新的基础?
12:44 技术性消失如何将技术塑造成奇迹,如何使人类劳动变得隐形
14:09 前沿AI风险的提出:AI实验室们的议程设置
17:05 红队报告的惊人发现:AI能力的失控边界
揭秘Anthropic等公司内部红队测试的震撼结果:最新AI模型已在某些领域超越人类专家能力,生物安全测试结果令人不安,暴露出技术发展的失控潜力。
18:37 全球AI治理联盟的崩塌
从英国布莱切利峰会到巴黎行动峰会,安全一词从标题中消失,美欧英同盟破裂。
20:00 模型竞赛,一个字:卷
21:29 "前沿AI风险"如何塑造政策真空?
23:15 云计算巨头:AI革命背后真正的权力持有者
24:25 北大人工智能研究院朱松纯:AI叙事存在认知偏差,最难解决的问题是人文学科关注的社会复杂系统。
26:24 存在风险叙事的真相:源自顶尖科学家的担忧
28:33 如果海德格尔活着,会如何批判硅谷?
31:25 AI创业者是当代“奥本海默”吗?科技精英的道德幻觉
34:15 智能概念的哲学革命:从人类中心到宇宙尺度
35:45 意识与智能的解构:AI的存在主义挑战
39:57 可解释性AI:我们不够重视的关键研究领域
40:34 Stop Sign停车标志实验:自动驾驶到底能和人类一样看懂路标吗?
42:56 破除单一叙事:重塑AI讨论的多元声音
44:13 重启对话:技术即人
📘
本期提到的关键概念
* Noema:意识活动所指向的对象或内容,即经验的意义部分。
* Noesis:与Noema相对应,Noesis指的是意识活动本身,即赋予经验意义的过程或行为。
* Hylomorphic Model:认为任何物理实体都是形式(Form)与质料(Matter)的结合。形式赋予事物其特性,质料则是构成事物的材料。
* SETI(搜寻地外智能):指的是寻找地外智慧生命存在证据的科学努力,主要通过接收和分析来自太空的信号来探测可能的外星文明。
* Frontier AI Risk:高度先进的基础模型可能具备的危险能力,足以对公共安全构成严重风险。
* Red Team(红队):在人工智能安全领域,红队指的是通过模拟真实世界攻击来测试AI系统的防御能力,以发现和修复潜在的漏洞。
* 可解释性AI:指一套方法和流程,使人类用户能够理解和信任机器学习算法的结果和输出,旨在提高AI决策过程的透明度。
* AI Agent:指能够自主执行任务、进行决策,并与环境交互的人工智能系统或程序,通常用于完成特定的目标或任务。
* 技术性消失:指人类劳动在技术包装下被“隐形化”的过程,即技术的发展使得背后的人类劳动变得不可见或被忽视。
* 《悬崖》(The Precipice):由哲学家托比·奥德(Toby Ord)撰写的书籍,探讨了人类在未来可能面临的生存风险,以及如何确保人类文明的长期存续。
* 《幽灵工作》(Ghost Work):由玛丽·L·格雷(Mary L. Gray)和西达斯·苏里(Siddharth Suri)合著,揭示了在数字经济中,被技术平台隐藏起来的大量临时工和零工劳动者的现状,探讨了他们的工作条件和社会影响。
* 去蔽:让被遮蔽的存在重新显现出来,从而通向更本真的理解。
👤
提到的人物
* Bruno Latour:科学社会学与“行动者网络理论”提出者
* Geoffrey Hinton、Yoshua Bengio:AI领域“教父”级人物,积极参与AI伦理与风险讨论
* 朱松纯:北京大学AI研究院教授,提醒AI从学术问题转为社会问题的认知挑战
* 朱啸虎:著名投资人
* Mary Gray:《幽灵工作》作者,微软研究院研究员
* Amba Kak:科技政策研究所AI Now执行董事
* Sarah Walker:天体物理学家
* Benjamin Bratton:加州大学圣地亚哥分校的技术哲学与思辨设计教授
📚
参考资料
1. Rees, T. (2025). Why AI Is A Philosophical Rupture. Noema. Retrieved from www.noemamag.com
2. Fernandes, E., Evtimov, I., Kohno, T., et al. (2019). In London? See our work on Adversarial Machine Learning at the Science Museum. Tech Policy Lab, University of Washington. Retrieved from techpolicylab.uw.edu
3. OpenAI. (2023). Frontier AI Regulation: Managing Emerging Risks to Public Safety. OpenAI. Retrieved from openai.com OpenAI+1OpenAI+1
4. Helfrich, G. (2024). The Harms of Terminology: Why We Should Reject So-called “Frontier AI”. AI and Ethics. Retrieved from link.springer.com SpringerLink+1SpringerLink+1
5. Anthropic. (2025). Progress from our Frontier Red Team. Anthropic. Retrieved from www.anthropic.com Home
请注意,第4条参考文献指出,“前沿AI风险”概念最初由人类未来研究所(FHI)的研究人员提出,尽管未直接提及OpenAI、DeepMind等人工智能实验室的名称,但事实上,该论文在OpenAI的网站上明确表示是由OpenAI独立委托完成。
可信AI交通路标实验
📚
BGM:
片头:Ivano Palma - Il viaggio
片尾:Lonely Man - Alex Hamlin
* 小宇宙:智幻时刻Fungimind
* Apple Podcasts:智幻时刻Fungimind
* QQ音乐:智幻时刻Fungimind
* Spotify:智幻时刻Fungimind
* Email: [email protected]
* 小红书:Fungimind_AI治理蘑菇
评价...

空空如也

小宇宙热门评论...

暂无小宇宙热门评论

EarsOnMe

加入我们的 Discord

与播客爱好者一起交流

立即加入

扫描微信二维码

添加微信好友,获取更多播客资讯

微信二维码

播放列表

自动播放下一个

播放列表还是空的

去找些喜欢的节目添加进来吧