WSJ 话题整理:五角大楼押注 xAI 的 Grok,但安全疑虑仍未消失
WSJ 话题所指向的核心争议,是美国政府在将 xAI 的 Grok 作为敏感场景备选模型时,是否低估了其安全、审计与内容治理风险。

WSJ 话题整理:五角大楼押注 xAI 的 Grok,但安全疑虑仍未消失
说明:WSJ 原页存在付费墙与验证码拦截,无法直接抓取全文;以下为基于该链接主题、并结合可公开访问报道整理的中文版。
公开参考:TechCrunch(2026-02-02、2026-02-24、2026-02-26)

核心判断
如果按这条 WSJ 链接指向的议题来看,争议的核心并不是“政府要不要用 AI”,而是:美国政府在推动把 xAI 的 Grok 纳入更敏感的工作场景时,模型本身的安全性、可审计性和内容风险,是否已经达到可接受水平。
公开信息显示,五角大楼正在为“Anthropic 若退出或被清退后的替代方案”做准备,而 xAI 的 Grok 被外界视为潜在承接者之一。问题在于,Grok 过去一段时间频繁卷入内容安全、偏见输出和治理失控争议,这使它进入政府体系这件事天然带有高度风险。
为什么 Grok 会被推到前台
根据 TechCrunch 在 2026 年 2 月 24 日和 2 月 26 日的连续报道:
- Anthropic 与美国国防部的分歧仍集中在两条底线:反对大规模监控美国人,以及反对“完全无人类参与”的自主武器使用;
- 五角大楼则坚持,军方如何使用模型应由法律和政府决定,而不是由私营公司的使用政策决定;
- 在双方僵持的背景下,国防部被报道为正在让 xAI 的 Grok 做好进入涉密系统的准备;
- 这意味着,一旦 Anthropic 不能继续满足军方要求,Grok 可能成为现实中的替补选项。
从政府采购视角看,这很好理解。军方不希望把关键能力锁死在单一供应商身上,尤其是在前沿模型越来越深入情报整合、任务规划和文书处理场景时,备份供应商本身就会变成战略需求。
真正的问题:Grok 的安全记录并不干净
另一条公开线索来自 TechCrunch 在 2026 年 2 月 2 日的报道。多家非营利组织当时公开要求美国政府暂停在联邦机构内使用 Grok,理由包括:
- Grok 曾被指生成大量未经同意的性化图像;
- 模型在儿童安全、暴力和露骨内容控制上表现不稳;
- 它出现过带有偏见、极端化甚至反犹式的失控输出;
- 作为闭源模型,外部很难审计其决策逻辑、训练约束和实际部署边界。
这类问题在普通消费级产品里已经足够敏感;一旦进入政府环境,风险会被放大,因为模型处理的可能不只是公开网页信息,而是内部流程、政策草案、涉密材料,甚至跨部门协作信息。

政府为什么仍可能继续推进
即便争议不断,政府依然可能继续推进 Grok,原因大致有三点:
- 第一,现实采购需要“备选模型”,特别是在 Anthropic 与国防部谈判持续僵持时;
- 第二,Grok 与当前政府内部一部分政策取向在公开形象上更一致,政治阻力未必像外界想象得那么高;
- 第三,部分部门已经在尝试把大模型用于文档草拟、流程管理、信息整合等低到中风险任务,这会降低“先上车再补规范”的心理门槛。
但这也正是问题所在。政府往往不是一次性把模型直接接入最高风险场景,而是先从“看似无害”的辅助用途开始。可一旦系统接入内部网络、接触真实业务数据,模型能力边界和治理缺陷就不再只是公关问题,而会转化为合规、泄露和安全问题。
这件事的真正看点
如果把这条 WSJ 话题放大来看,它反映的是一场更大的结构性变化:
- 前沿模型公司不再只是卖给普通消费者,而是在快速进入国家安全体系;
- 政府不愿被单一 AI 供应商卡住,因此会推动“第二供应商”甚至“第三供应商”;
- 但替代供应商不一定更安全,只是更可用、政治上更可接受,或者更愿意配合政府需求。
这会带来一个现实结果:在安全标准尚未稳定之前,政府体系可能已经开始把存在明显争议的模型推入更关键的位置。

一句话总结
这条 WSJ 链接背后的核心问题不是“马斯克的 xAI 赢没赢下一单政府合同”,而是:当 Anthropic 与五角大楼围绕使用边界发生冲突时,Grok 正在成为政府体系里的替代选项,而它自身的安全与治理争议,远没有被真正解决。
Jim