
日期: 2025年5月17日 (CBS访谈日期)
受访者: Geoffrey Hinton (杰弗里·辛顿),AI教父,曾获得2024年诺贝尔物理学奖。
核心主题: Hinton 对 GPT-4 的实际使用方式、他对 AI 目前能力和局限性的看法,以及他警示的三大核心风险(生成幻觉、推理黑箱、责任漂移)以及如何防范这些风险。
Hinton “每天都在用 GPT-4”,他将其视为一个高效的工具,并认为 GPT-4 “几分钟能干我很多工作”,GPT-4 “足够强大,回答迅速,表达通顺,信息覆盖广”,能给出“像模像样的”回应。他常用的三种使用方式:
起草初稿: 让 GPT-4 生成研究备忘的初稿。
反向质询: 要求 GPT-4 扮演“刁钻审稿人”,逐句寻找错误。
数据补全: 导入外部数据和最新论文,让 GPT-4 补全推理链和证据链。
核心局限性:
Hinton “最怕它哪天‘装懂’——把漏洞包成逻辑递进,还骗得我信以为真。”他强调,GPT-4 “没有判断对错、教你思考” 的能力。Hinton 将 GPT-4 视为一个**“有用但不可托底的助手”**,而不是一个有判断力的合作者或老师。 “助手可以加速,但不会纠正。老师才会告诉你哪错了。”GPT-4 “不会说‘我不确定’”,“不会标出自己的逻辑漏洞”,也“不会阻止你采纳一个看似正确、实则错误的答案”。Hinton 通过一个关于 Sally 姐妹数量的逻辑题演示了 GPT-4 的一个“根本缺陷”
“Sally有三个兄弟,每个兄弟都有两个姐妹。
那Sally有几个姐妹?”
它在处理主语关系和常识判断时存在问题,“没意识到Sally自己是其中之一”。他认为 GPT-4 不是“推理”出来的答案,而只是“预测”你想听什么答案。这就像“一辆生锈的车,上面刷了一层厚漆”,表面光鲜但底层结构有漏洞。GPT-4 “在各个领域都懂一点,都不精通”,它善于“给出答案”,但“答案 ≠ 理解”。
AI 使用中的三大核心风险 (Hinton 警示):
生成幻觉 (Hallucination): GPT 的问题在于“它错得太像对了”。它会生成流畅自然的答案,但其中可能混入编造的事实或错误的逻辑,且不会提醒用户“我不确定”,容易让人误信。
推理黑箱 (Reasoning Black Box): GPT “自己也说不清‘为什么这么回答’”。它没有透明的推理链或中间过程,用户甚至开发者都难以理解其决策逻辑。
责任漂移 (Responsibility Drift): 当 AI 生成的内容出错导致不良后果时,责任难以界定。“是你错了,还是模型错了?GPT 不会承担后果,但你可能要为它的失误买单。”
防范风险的“人工安全阀”与使用建议:
Hinton 没有提出“停下使用” AI 的建议,他自己也在用,但他强调需要设置“人工安全阀”,即用户需要自己来“踩刹车”。给使用者的“刹车清单” (个人层面):AI 输出结果后,永远先问自己两个问题:
-“它是否跳过了必要的逻辑链条?”
-“这个结论有没有‘太顺了’?是不是你想听的?”
给组织/机构的建议:
-不让 AI 直接影响结果,只允许影响过程。
-所有 AI 输出必须有“人类最后一审”,即“不是 AI 把关你,而是你最后把关 AI”。
-在重要系统(教育、医疗、法律等)中,不允许“默认相信 AI”。
Hinton 的核心观点是:“用,是为了效率;懂,是为了安全。”他强调,GPT “不知道它在说什么,问题在于你以为它知道。”“真正危险的不是 AI 说错了什么, 而是你——没有意识到它其实不懂。”对未来 AI 的展望与态度,Hinton 提到:“最终 AI 会在所有领域都变得非常专业。” (但目前不是) 他对 AI 的使用态度是:“不是拒绝它,而是引导它。”
总结: Hinton 在这次访谈中,分享了他作为 AI 领域顶尖专家对 GPT-4 的实际使用体验和深刻洞察。他肯定了 GPT-4 在提高效率方面的巨大价值,但也尖锐地指出了其“装懂”、缺乏真正理解和判断能力的核心局限。通过警示生成幻觉、推理黑箱和责任漂移这三大风险,Hinton 强调,用户不应将当前的 AI 视为无所不知的老师或有判断力的合作者,而应将其视为一个高效但不可全信的助手。他呼吁所有使用者,无论是个人还是组织,都必须保持警惕,设置“人工安全阀”,对 AI 的输出进行批判性审查和最终把关,才能在享受 AI 带来便利的同时,避免被其“看似懂”的表象所误导。Hinton 本人的使用方式——依赖中保持警惕,怀疑但不拒绝——为我们提供了一种务实且安全的 AI 使用范式。
如果希望和主播建立联系/加入听友群,可加微信bonewe2004!
关于主播:

空空如也
暂无小宇宙热门评论