Hotdry.

Article

政府AI问责与技术审计:南非内政部官员因AI幻觉被停职事件分析

通过南非内政部AI幻觉事件深度剖析政府AI系统的可靠性审计机制与工程化问责实现路径。

2026-05-08security

2026 年 5 月初,南非内政部宣布两名高级官员被采取预防性停职措施,原因是该部门近期获内阁批准的《公民身份、移民和难民保护修订白皮书》附录中出现了明显的人工智能幻觉引用。这一事件迅速成为全球政府 AI 治理领域的焦点案例,其背后暴露的问题值得深入剖析。

事件始末与核心问题

南非内政部长莱昂・施雷伯博士于 2026 年 4 月宣布内阁批准了这份修订白皮书,该文件涵盖了难民庇护的 “第一安全国” 原则、 Merit-based 公民入籍积分制度、数字化签证系统以及生物识别人口登记现代化等关键政策内容。然而,部门内部审查发现,附录中的参考文献清单存在严重问题:这些引用并未在正文中被实际引用,而是在文档完成后被额外生成并附加,且包含无法验证或完全虚构的来源。

部门声明指出,根据初步内部审查,问题似乎与修订白皮书附录的参考文献清单有关。这些引用似乎是事后生成并附加到文档中的,因为它们并未在正文部分被引用。南非内政部已撤回该参考文献清单,并委托两家独立律师事务所分别主导纪律处分程序和全面审查 2022 年 11 月 30 日以来部门产生的所有政策文件。这一时间节点具有特殊意义 —— 正值首个大型语言模型向公众发布之日。

事件暴露的系统性风险

这并非南非政府首次遭遇类似问题。几乎同一时期,通信和数字技术部也因《国家人工智能政策草案》使用虚构引用而陷入争议,部长索利・马拉齐随后从公众咨询中撤回该草案,并宣布对两名官员采取预防性停职措施。这些连续事件揭示了政府 AI 应用中的多层风险。

首先,政策文档的真实性与可信度受损。白皮书的政策内容本身经由跨部门协作和公众咨询流程形成,并未受到参考文献问题的影响,但引用清单的可疑性仍然削弱了整份文件的公信力。其次,问责链条出现模糊地带。当 AI 工具参与政策起草时,责任的归属变得复杂 —— 是官员未能尽到审核义务,还是 AI 系统本身存在缺陷,抑或是人机协作流程设计不当?第三,制度层面存在滞后性。政府部门的审批流程在 AI 时代之前设计,未曾考虑到 AI 生成内容可能带来的风险敞口。

工程化审计与问责机制设计

针对上述风险,需从技术、流程和制度三个维度构建政府 AI 系统的可靠性审计与问责框架。

在技术检测层面,建议部署专项 AI 文本检测工具作为文档审批的前置环节。检测阈值可设定为:当 AI 生成内容占比超过政策文档总字数的 15% 时,系统应自动触发人工复核流程。对于参考文献清单,应实施引文溯源验证 —— 每条引用需通过 DOI、URL 或官方数据库进行可访问性校验,无法验证的引用应自动标记并阻断文档提交。版本控制方面,所有政策文档的历次修订应保留完整的变更日志,记录每一处修改的操作者、操作时间和辅助工具信息。

在流程管控层面,建议建立 “人机分离” 的文档审核机制。政策文档的 AI 辅助起草与人工审核应由不同责任主体承担,形成相互监督的格局。具体而言,AI 生成的初稿应由另一名未参与生成过程的官员进行完整审核,审核重点包括事实核对、逻辑一致性检验和引文可追溯性验证。同时,应设立 “AI 使用声明” 制度 —— 所有使用 AI 辅助的政策文档须附带声明,说明所使用 AI 工具的名称、版本、使用场景和人工介入程度。

在制度问责层面,建议制定明确的 AI 使用规范和违规处分标准。南非内政部已表示将 “在内部审批流程中设计并实施 AI 检查和声明”,这一方向值得借鉴。处分标准可按严重程度分级:因故意隐瞒 AI 使用或未履行审核义务导致重大错误的,可认定为失职并启动纪律处分;因 AI 系统本身缺陷导致引用错误的,应追溯至技术采购和部署环节的责任。此外,周期性审计周期建议设定为季度审查,重点关注高风险政策领域(如移民、护照、身份证件等涉及公民权益的职能)的 AI 辅助文档。

实践要点与监控指标

在工程实现层面,以下参数和监控点值得关注。文档提交阶段应在办公自动化系统中集成 AI 检测插件,对所有政策文档进行自动扫描,并将检测结果作为流程推进的前置条件。引用验证阶段建议部署与学术期刊相似的查重和引文校验接口,对参考文献清单进行批量验证,设置 “无法验证引用不超过总数 5%” 的阈值作为通过标准。审计追踪阶段应在文档管理系统中启用完整的操作审计日志,记录包括登录账号、IP 地址、操作时间戳和关联文档版本在内的全量信息,支持事后追溯。人员培训方面,建议每半年开展一次 AI 素养和审核技能培训,重点覆盖幻觉识别、引用验证和伦理合规等内容,培训考核通过率应纳入年度绩效评估。

政府 AI 系统的可靠性审计与问责机制建设,本质上是在技术创新与行政责任之间建立平衡。南非内政部的案例表明,即使在政策内容本身严谨的情况下,AI 辅助环节的疏漏仍可能引发信任危机。从工程视角看,这提示我们不应将 AI 视为可完全托管的工具,而应在人机协作流程中嵌入充分的校验环节,并通过制度设计明确各方责任边界。


资料来源:本文主要参考 ITWeb 于 2026 年 5 月 1 日的报道《Home Affairs officials suspended over AI ‘hallucinations’》以及相关政府声明。

security

内容声明:本文无广告投放、无付费植入。

如有事实性问题,欢迎发送勘误至 i@hotdrydog.com