关注《田丰说》,每天3分钟,掌握全球AI大事件!本视频由商汤“如影”数字人APP生成。
田老师认为,当人类面对大模型的幻觉等问题时,最有效的方法是发明一种新的AI监督技术来消除幻觉,以模型治理模型,以AI改进AI。人类的可解释性来自于因果性,所以大模型的问题应追溯到数据源头。
全球AI要闻,OpenAI安全主管找到新方法,克服大模型幻觉。
7月13日,OpenAI安全系统团队负责人Lilian Weng在博客最新分享了在理解、检测和克服大语言模型幻觉方面的诸多研究成果,她参与了GPT-4的预训练、强化学习、对齐等工作。模型输出应该以预训练数据集为基础,为了避免这类外源性幻觉,大语言模型应遵循一定训练原则,实事求是,不知时要承认不知。
亮点1,幻觉检测的创新方法,引入FactualityPrompt基准数据集,通过检索增强式评估和基于采样的检测来量化模型幻觉。搜索增强式事实性评估器表现优于人类标注者,同时成本还低20倍,与人类的一致率为72%,而当与人类不一致时,胜过人类的胜率为76%。
亮点2,动作链的新框架涌现。2023年提出的Chain-of-Verification方法,通过规划和执行验证来减少幻觉,为模型的自我校验提供了新思路。实测大约7-10%的问题虽复述正确但未能得到正确答案,而大约12%的问题虽复述错误但却回答正确了。
亮点3,反幻觉方法的路径是,RAG、编辑、归因...通过归因编辑来追溯性地让大语言模型有能力将生成结果归因到外部证据。实验中,通过提示GPT-4创建了一个用于评判模型和生成模型的监督数据集,然后将它蒸馏到一个内部模型中,降低了推理成本。
每天3分钟,掌握全球AI大事件!《田丰说》全网发布,敬请关注!
空空如也
暂无小宇宙热门评论