返回硅谷AI

关于“战争部”讨论的声明(Anthropic)

Anthropic CEO 说明其与美国国家安全机构合作的边界、限制与价值观立场。

Jim2026年2月27日

关于“战争部”讨论的声明(Anthropic)

原文链接:https://www.anthropic.com/news/statement-department-of-war

原文作者:Dario Amodei(Anthropic CEO)

原文日期:2026-02-26

译注:以下为中文翻译,尽量忠实原意并保留关键信息结构。

过去几个月里,我一直通过各种私下和公开渠道,阐述 Anthropic 为什么应当与美国国家安全机构开展更全面合作。我仍然认为,这是一个重要且需要细致讨论的话题;在这个问题上,持善意立场的人可以有不同看法。

自从我提出这一观点后,我听到一些担忧:有人认为 Anthropic 想在军事场景中不加审慎地部署 AI,或者认为我们正在为了利润放弃自身价值观。

这些担忧建立在对我们立场的误解之上。我们并不打算“卖掉立场”或改变价值观。我们开发 Constitutional AI,就是希望把价值观真正写进模型训练流程。

但与我们的《宪章》一致,我们也相信:通过不去帮助那些会破坏美国民众福祉与自由的人,我们是在支持美国的福祉与自由。

这正是我们认为“帮助美国在与专制国家的竞争中保持战略优势”与使命和价值观一致的原因。做到这一点,并不必然意味着武器化。

为更清晰地说明立场,我们与美国国防部及情报系统签署的合同都包含了“有限使用政策”。我们不会允许模型用于大规模国内监控,也不会允许模型在能够避免的情况下被用于武器系统或相关系统。

这里有两项例外情形:

  1. 对武器系统的安全性与可靠性改进提供分析和建议;以及在国家安全情报能力范围内,以严格受限的方式支持武器研发。
  2. 由特定授权用户在“AI 不参与武器投放或目标选择决策”的前提下,使用模型去操作、管理和指挥武器系统。

例如,美国空军和首席数字与人工智能办公室(CDAO)已公开描述过一个落地案例:Claude 用于整合事件数据与报告,以提升战略行动质量。

我们仍然认为,与“战争部”合作带来的收益大于风险,尤其是在民主国家继续保持“负责任 AI 研发与国家安全部署”领先地位的前提下。

这也只是我们更广泛工作的一部分。AI 同样可以提升美国竞争力和经济繁荣。我们近期提出的政策建议以及对“白宫 AI 行动计划”的反馈,已经对此有所阐述。

我们欢迎各方对 Anthropic 参与美国国家安全工作的方式持续提出反馈。

NoRumor
NoRumor 致力于提供真实、准确、有深度的新闻报道与分析。我们相信,在信息泛滥的时代,高质量的内容是最稀缺的资源。每一篇报道都经过严格的事实核查,力求为读者呈现事件的全貌与深层逻辑。
真实 · 准确 · 深度

Jim