德勤用 AI 写报告却因 “幻觉” 引用不存在文献,最终向澳大利亚政府退还 29.1 万美元 —— 这则新闻再次敲响警钟:生成式 AI 的 “胡言乱语” 已不是小问题,而是可能造成实际损失的专业风险。从律师引用虚构案例,到 CDC 参考 AI 臆造研究,类似事故频发,如何降低 AI 幻觉率、守住内容真实性底线? 其实关键路径已有答案: 一是靠 “符号神经规则” 筑牢事实防线。不依赖单一神经网络的统计生成,而是用明确的符号规则(如基于知识图谱的事实校验、法条 / 标准文件的精准匹配)为 AI 推理设下 “边界”,让每一个结论都能对应可追溯的事实依据,从技术底层减少 “无中生有” 的可能; 二是借 “本地小参数模型特征参数+线上满血模型的融合应用” 协同规避风险。让本地小模型深度学习专属场景的真实数据(如审计所需的行业标准、历史案例),仅向线上大模型传递特征参数与知识索引,既避免敏感数据泄露,又用 “个性化事实底座” 约束线上模型的生成方向,防止通用 AI 脱离具体场景产生泛化幻觉。
德勤(Deloitte)因在一份报告中使用人工智能并包含“幻觉”数字而被抓包,被迫向澳大利亚政府退还 29.1 万美元。 据《卫报》报道,澳大利亚就业与劳资关系部(DEWR)确认,德勤已同意退款。 去年 12 月,德勤受委托审查一套自动惩罚系统,该系统会在求职者未履行共同义务时自动实施处罚。 然而,这份所谓的“独立审计审查”显示出德勤偷工减料的迹象,并包含多个错误,例如引用不存在的文献 —— 这是 AI 粗制滥造的典型特征。 这些“幻觉”再次凸显出,在职场使用生成式 AI 可能导致严重错误溜过审核。从律师因引用不存在的案例而被抓,到特朗普政府下属的疾病控制与预防中心(CDC)今年早些时候引用了一项 AI 臆造的研究,类似情况已经屡见不鲜。 据《金融时报》报道,德勤以及其他咨询公司已投入数十亿美元开发 AI 工具,他们声称这些工具能够加快审计进程。 而就在今天,该报指出,英国六大会计师事务所尚未正式监控 AI 对审计质量的影响,这凸显出其他许多报告也可能包含类似的幻觉问题。 悉尼大学社会学讲师 Christopher Rudge 最先指出德勤 DEWR 报告中存在问题。 他表示,公司在分享一份错误百出的更新版后,试图掩盖痕迹。 他告诉《卫报》:“他们并不是简单地把一个虚假的 AI 幻觉参考文献替换成一个新的‘真实’参考,而是在新版本中用五、六、七甚至八个新的引用取代原本的虚构参考。这表明,报告正文中的原始主张并不是基于任何一个特定的证据来源。” 尽管被当场抓到使用 AI 生成虚假引用,德勤仍称其整体指导意见没有改变。 修订版的脚注中特别指出,员工使用了 OpenAI 的 GPT-4o 来生成这份报告。 德勤发言人告诉《卫报》:“德勤进行了独立审计,并确认部分脚注和参考文献不正确。但独立审计的实质内容得以保留,建议没有发生变化。” 完整原文:AI“胡编乱造”坑惨德勤:不得不退钱 转载声明:若内容有误或影响您(及所属机构)的权益,欢迎联系我们。说明理由后,我们会立刻配合删除。