ChatGPT的出现将AI技术推向了一个新的高峰,但随着技术高峰的到来,技术背后的伦理问题、价值导向也越来越不可忽略。ChatGPT将是互联网所有网民共同教育、共同喂养的集体性结果,也势必成为映照我们思维的一面镜子。饶有趣味的是,人工智能似乎远没有我们想象中那样中性、客观,它跟我们一样,充满了偏见、刻板印象,有时甚至也会仇恨、也懂歧视?
除了系统暴露出的“政治不正确”之外,这套系统的生成过程本身,也充满了令人忧虑的伦理问题。毕竟,ChatGPT的背后从来不只是天才精英的硅谷工程师,还有每小时两美金的肯尼亚数字民工们。在驯养AI的过程中,有人被忽略、被无视,有人被压榨、被牺牲。这一切现象都使得我们无法再“中性”地看待技术。
我们感到好奇,AI是如何学会这些刻板印象和性别偏见的?又是什么样的喂养模式塑造了这样的AI?我们又在期待什么样的AI ,是一个更加“政治正确”的端水大师,还是像我们人类一样,充满了人性复杂性的不完美伴侣?除此之外,更为重要的,我们如何让AI的喂养过程本身,变得更加公平、更加符合人道?
【嘉宾】
于洋,清华大学交叉信息研究院助理教授
杜梨,香港青年文学奖获得者、澎湃镜相非虚构写作大赛获奖者、科幻作家
【主播】
林柳逸,澎湃新闻·镜相栏目编辑
【收听时间轴】
05:20 就业“危机”?哪种艺术形式最有可能被AI取代?
11:50 AI为什么会有刻板印象?是谁教会了AI歧视思维?
28:36 当AI 介入文本创作,会如何帮助我们更有效地产出?
37:59 机器学会了书写,我们对原创性的标准会发生怎样的变化?
44:32 纠偏后的人类社会“最大公约数”,是否会加固“政治正确”的话语系统?
48:53 让AI变得更有伦理本身,是否就是一个伦理问题?
57:58 我们对ChatGPT的“喂养”,还会存在那些会被忽略的问题?
61:45 AI的技术平权?我们不能再以中性的角度看待技术
70:55 对于AI 时代,我们都抱有哪些期待?
【音乐】
Three-body—重塑雕像的权利




空空如也


