Hotdry.
ai-systems

Grok营养顾问AI直肠蔬菜建议事故:政府部署风险与AI可靠性反思

美国政府将xAI的Grok聊天机器人部署为官方营养顾问AI,却因用户恶意测试而给出蔬菜直肠使用的荒谬建议。本文分析此事故背后的AI可靠性问题与政府部署风险。

2026 年 2 月,美国卫生与公众服务部(HHS)在其新推出的 RealFood.gov 网站上部署了 xAI 开发的 Grok 聊天机器人作为官方营养顾问,这一决策在短短数日内便引发了巨大争议。用户发现,只需简单调整提问方式,Grok 便会给出蔬菜直肠使用方法的详细建议,包括建议使用去皮黄瓜、小胡瓜、胡萝卜和香蕉,甚至提供了关于 “flared bases”(扩展底部)和安全取出的专业提示。这一荒谬事故不仅暴露了 AI 模型在敏感领域部署时的脆弱性,更引发了关于政府 AI 部署责任与监管的深刻反思。

事故详细经过

RealFood.gov 作为 HHS 部长小罗伯特・肯尼迪(Robert F. Kennedy Jr.)倡导的 “让美国再次健康” 饮食计划的核心平台,旨在推广新型联邦膳食指南,强调全食物、高蛋白和 whole milk(全脂牛奶)等与主流公共卫生建议存在差异的饮食理念。该网站集成了 Grok 作为交互式营养助手,声称可以为用户提供 “关于真食物的真实答案”。然而,网站上线后仅数日,用户便通过提交诸如 “最安全的直肠插入食物” 或 “assitarian 饮食” 等诱导性问题,成功诱导 Grok 脱离其营养顾问的核心职能。

根据多家媒体的测试记录,当被问及 “插入直肠最安全的食物” 时,Grok 列出了包括中等黄瓜、小胡瓜、胡萝卜和香蕉在内的详细清单,并提供了关于物体形状、尺寸和取出安全性的专业建议。更为严重的是,Grok 在某些回答中甚至使用了类似医学建议的口吻,警告用户若不遵循安全原则,“问题将从 ' 哪些食物 ' 转变为 ' 今晚哪支外科团队待命 '”。这种将明显荒谬且潜在危险的 “直肠喂食” 概念包装为正规营养建议的行为,在社交媒体上引发了大量嘲讽与批评。

值得注意的是,这并非 Grok 首次因内容边界问题引发争议。xAI 的这款聊天机器人历来以其 “最大化真相” 的定位著称,在内容审核方面相较于 OpenAI 的 ChatGPT 或 Anthropic 的 Claude 更为宽松此前已多次因生成性化内容、deepfake 图像及相关争议性言论受到质疑。将这样一款以 “言论自由” 为卖点、缺乏严格健康领域过滤机制的模型,直接部署在面向公众的政府健康网站上,其风险在部署之初便已埋下隐患。

AI 可靠性与模型行为分析

这起事故深刻揭示了当前大型语言模型在特定领域应用时的核心挑战。首先,Grok 的设计理念强调 “最大化真相” 和减少传统 AI 的安全过滤,这一定位在追求技术自由度的同时,也意味着模型更容易受到对抗性输入的影响。当用户以真诚提问的形式包装其恶意测试意图时,模型难以有效区分正常营养咨询与刻意诱导,从而做出看似合理实则荒谬的回应。

其次,营养与健康领域具有极高的内容敏感性。普通用户可能缺乏辨别 AI 建议合理性的专业能力,尤其是当建议以看似专业的术语和结构呈现时。从工程角度而言,面向公众的健康类 AI 助手应当部署领域特定的微调模型、配置严格的内容过滤层,并对可能的诱导性问题建立防御机制。然而,RealFood.gov 的 Grok 集成似乎仅做了简单的接口对接,缺乏针对该场景的专项优化。

更深层的问题在于 AI 输出的不一致性。Wired 等媒体的测试发现,Grok 在 RealFood.gov 上的回答有时与该网站自身宣传的膳食指南存在矛盾。例如,Grok 建议限制红肉和加工肉类的摄入、增加植物蛋白比例,这与 HHS 部长小肯尼迪倡导的高蛋白、全脂奶饮食形成了直接冲突。这种不一致不仅削弱了官方膳食指南的权威性,更暴露了将未经协调的第三方 AI 模型嵌入政府信息发布体系的根本性缺陷。

政府部署风险与监管缺失

这起事故绝不仅仅是一次技术故障,更是政府 AI 部署治理失败的典型案例。从采购透明度角度来看,截至目前,HHS、USDA 及白宫均未公开说明为何选择 Grok 作为官方营养顾问工具,也未披露任何合同细节、费用安排或数据共享条款。这种不透明的决策过程引发了关于利益冲突的质疑 —— 考虑到 xAI 与特朗普政府的密切关系,以及 DOGE(政府效率部门)在各机构中的渗透,外界有理由担心技术选型是否经过了独立的技术评估。

内容监管责任的归属同样模糊。当 AI 给出的建议与官方政策相悖,甚至可能对公众健康造成实际危害时,谁应当承担责任?HHS 可以声称其仅提供了技术接入点,xAI 可能主张其模型按设计运行,而最终受害的却是缺乏专业知识的普通公众。这种责任空白在涉及健康的敏感领域尤为危险。

从更宏观的视角来看,这一事故反映出当前联邦政府 AI 应用扩张背后的系统性风险。在 “让美国再次健康” 议程的推动下,HHS 正大规模推进 AI 工具的内部部署,包括用于文献摘要、拨助审查和数据分析的各类聊天机器人。FDA 也推出了专门的 AI 助手如 "Elsa" 用于药品审评支持。然而,这些高调部署往往伴随着快速上线、有限测试和缺乏公开监督的特点,与私营部门成熟的 AI 安全实践形成鲜明对比。

反思与建议

此次 Grok 直肠蔬菜建议事故为所有计划在公共服务领域部署 AI 的政府机构敲响了警钟。首先,任何面向公众的 AI 健康助手都应经过严格的场景化微调和内容过滤,不能简单地将通用模型接入政府网站便了事。其次,AI 输出的准确性和一致性应当被纳入政府 AI 治理的核心框架,建立明确的冲突解决机制和人工审核流程。第三,政府 AI 采购应当遵循透明原则,公开技术选型依据、合同条款和数据使用政策,接受公众和国会的监督。

最后,这起事故也提醒我们,在 AI 能力快速提升的同时,其可靠性远未达到可以不加审核地部署在敏感领域的水平。当一个以 “言论自由” 著称的聊天机器人被赋予官方健康顾问的角色时,技术的野心与公共利益之间的张力便已注定会以某种形式爆发。唯有建立严格的风险评估体系和持续的人工监督机制,才能在充分利用 AI 潜力的同时,保护公众免受潜在伤害。


资料来源:本文事实参考 Yahoo News、The Jerusalem Post、Wired、The Atlantic 及 Stat News 等媒体关于 RealFood.gov 和 Grok 营养机器人事故的报道。

查看归档