2023年,ChatGPT开发者OpenAI预言,各方面超越人类水平的人工智能在10年内就会出现;英伟达创始人黄仁勋表示,人工智能可能在5年内超越人类。诸如此类的预测引发了全球范围内的关注,掀起了一场关于人工智能前景和展望的讨论浪潮。通用人工智能(AGI)是能够在各种任务上超越人类智能水平的人工智能系统,被认为是人工智能发展的下一个重大里程碑。但是,AGI也显然存在许多潜在的法律和伦理问题,需要我们及时关注。
今天我们邀请了复旦大学博士生王沛然和同济大学法学院助理教授朱悦,共同探讨通用人工智能的法律应对,由《东方法学》编辑部实习生黄佳妮担任主持人。
王沛然博士在《东方法学》2023年第6期上发表了论文《从控制走向训导:通用人工智能的“直觉”与治理路径》。文章认为,生成式人工智能基于概率预测进行涌现创造,而不是基于规则编码进行传统的符号输出,其标志着人工智能在意识能力上已从逻辑思考拓维至经验直觉,正向通用人工智能加速演进。大规模参数支持下的压倒性概率,使机器摆脱了对工程师预设逻辑规则的依赖,但由于深度神经网络的“直觉”机制难以清晰呈现,传统符号主义时代的可解释性规制也将从教义式的规范信条转变为实现“模型可信”的工具手段,其并非以算法为中心的完全透明,而是区分对象、目的、内容、效果的模型说明方案。通用人工智能的行为决策主要源于形而下的经验积累而非形而上的超验规定,应以强调经验的实用主义哲学为内核,从控制主义转向训导主义的治理范式:围绕“价值对齐”创新技术手段和规范机制,培育机器造福人类的终极动机;加强数据生态规范化建设,避免不良内容侵蚀机器认知框架;优化应用互动环境,注重场景分类分级监管与针对用户的规制。
《东方法学》学术播客不止于期刊论文的探讨,我们坚持有态度的思考、有专业的论证、有正能量的传播,希望能激励更多的人都来关注、思考和参与相关前沿理论问题的探讨。开源模型的门槛越来越低,上手体验物超所值。透明、可解释和可问责等抽象的治理原则很重要,保障每个人都有体验、调试和运用AI的权利和能力也很重要。希望通过这次播客激发听众对通用人工智能的兴趣,吸引更多人参与通用人工智能的相关法律研究。
本期嘉宾
- 王沛然 复旦大学法学院博士研究生、复旦大学智慧法治实验室研究助理
- 朱 悦 同济大学法学院助理教授、上海市人工智能社会治理协同创新中心研究员
主持人
- 黄佳妮 《东方法学》编辑部实习生
时间轴
1:34 ChatGPT和AGI是什么关系?
4:15 AGI的基础能力:ChatGPT抓重点的自主注意力机制
8:07 符号主义人工智能:自上而下的命令规则
10:01 连接主义人工智能:自下而上的经验学习
17:26 AGI的自我动机:是否需要人对AGI进行提示?
20:33 AGI是否能替代人的创造力?
28:29 作者背后的故事:“直觉”是MBTI中的N人?
36:28 AGI思维不可见的痛点该如何理解?
44:48 传统人工智能与AGI规制核心不同:从可解释到可理解、可信任
45:40 欧盟人工智能法案规制技术权力:提供人工智能算法的解释权
48:13 人类如何影响AGI不可见的思维?
50:35 从控制走向训导:内在控制和外在规训
52:35 人工智能的成长环境来源于数据,应该如何进行数据治理?
59:55 AGI生产环节应该如何监管?(环节:数据、特征、模型、硬件)
70:13 用户运用开源模型等人工智能的注意事项
相关阅读

主理人
卢 玮 上海市法学会研究部四级调研员
制作团队
徐 天 郭 骏 黄佳妮 赖生权
关注我们

空空如也

