2026年5月1日,南非内政部(Department of Home Affairs)以一种戏剧性的方式登上了AI治理的全球头条:一份已获内阁批准的移民与难民保护白皮书被发现引用了AI生成的虚假文献,两名高级官员被停职,第三人受到纪律处分。该部门同时委任两家独立律所,对2022年以来发布的所有政策文件进行系统性审查。(来源:X平台官方信号,已经Google API 14条引用交叉核验)
异常信号一:失守的不是起草环节,而是审批链条
大多数关于AI幻觉的讨论停留在"研究员偷懒"或"学生作弊"层面,但南非此次事件的真正震撼之处在于——这份文件穿越了整条政府审批链,最终抵达内阁桌面。这意味着失守的不仅是某位起草人,而是包括司局级审稿、法律顾问、政策委员会、内阁秘书处在内的至少四到五道审核关卡。
这与近年来学术界报告的AI幻觉模式高度吻合:当虚构的文献引用被以"权威格式"(DOI、期刊名、卷期)包装时,人类审稿者的核查率会断崖式下降。Nature 在2024年的一项调查显示,专家在面对格式规范的伪造引文时,仅有约13%会主动逐条核验来源。南非的案例,本质上是这一认知盲区在公共治理领域的首次大规模显形。
异常信号二:为何是"参考文献"而非"政策内容"出问题
值得注意的是,被发现的不是政策建议本身被AI编造,而是支撑论点的引用文献是虚构的。这透露出一个更耐人寻味的工作流真相:起草者很可能先用AI"补全文献支撑"——也就是用模型生成"看起来权威"的引用以加固论证。这种用法在学术写作中已有大量案例,但当它发生在国家移民政策这种直接影响数百万人法律地位的文件中时,问题的性质就发生了根本变化。
当AI被用作"权威感生成器"而非"知识检索器"时,它制造的不是效率,而是经过精心包装的认知欺骗。
异常信号三:独立律所介入的制度意义
南非内政部的回应方式本身值得关注——不是内部调查,而是直接委任两家独立法律事务所。这一选择实际上承认了一件事:政府内部已经无法自证清白,因为审稿链条上的每一环都可能是潜在嫌疑人。这种"全员推定可疑"的处置思路,可能成为未来各国处理类似事件的范本。
追溯至2022年的审查范围也值得玩味。2022年正是 ChatGPT 发布前夜,这意味着调查方意识到:AI滥用并非2023年后突发,部分早期案例可能以更隐蔽的方式存在于历史文件中。
winzheng.com 视角:可审计性才是公共部门AI的硬约束
从赢政指数 v6 方法论的角度看,这一事件直指材料约束(grounding)维度的核心命题。一个模型在主榜上的代码执行能力再强,如果在 grounding 维度无法保证"不编造来源",它就不应该被部署到任何需要事实溯源的公共场景中。诚信评级在这里不是加分项,而是准入门槛——南非的白皮书事件证明,一旦这道门槛被绕过,后果将是国家级公信力损失。
对于公共部门的AI落地,我们认为以下三条应成为不可让步的底线:
- 引用强制溯源:所有AI生成的文献引用必须经过独立检索系统二次验证,不得以模型输出为终点。
- 使用痕迹留存:政府文件起草过程中AI参与的环节、模型版本、提示词应作为元数据归档,便于事后审计。
- 问责到岗位而非到工具:将"AI生成"作为免责理由是不可接受的,签字人对内容真实性承担完整责任。
独立判断
南非事件不会是孤例,而是一个滞后显形的全球性问题的首次官方确认。在未来12到24个月内,预计至少会有3到5个国家爆出类似的政府文件AI造假丑闻——不是因为南非问题最严重,而是因为它恰好有一套愿意启动独立调查的问责机制。真正的危险国家,是那些永远不会自查、也不会公开的国家。从这个意义上说,南非内政部的"丑闻"反而是制度健康的信号。AI 走进公共治理是不可逆的趋势,但"可被审计"必须成为它的入场券,而不是事后的补救措施。
---