关于“战争部”讨论的声明(Anthropic)
Anthropic CEO 说明其与美国国家安全机构合作的边界、限制与价值观立场。
关于“战争部”讨论的声明(Anthropic)
原文链接:https://www.anthropic.com/news/statement-department-of-war
原文作者:Dario Amodei(Anthropic CEO)
原文日期:2026-02-26
译注:以下为中文翻译,尽量忠实原意并保留关键信息结构。
过去几个月里,我一直通过各种私下和公开渠道,阐述 Anthropic 为什么应当与美国国家安全机构开展更全面合作。我仍然认为,这是一个重要且需要细致讨论的话题;在这个问题上,持善意立场的人可以有不同看法。
自从我提出这一观点后,我听到一些担忧:有人认为 Anthropic 想在军事场景中不加审慎地部署 AI,或者认为我们正在为了利润放弃自身价值观。
这些担忧建立在对我们立场的误解之上。我们并不打算“卖掉立场”或改变价值观。我们开发 Constitutional AI,就是希望把价值观真正写进模型训练流程。
但与我们的《宪章》一致,我们也相信:通过不去帮助那些会破坏美国民众福祉与自由的人,我们是在支持美国的福祉与自由。
这正是我们认为“帮助美国在与专制国家的竞争中保持战略优势”与使命和价值观一致的原因。做到这一点,并不必然意味着武器化。
为更清晰地说明立场,我们与美国国防部及情报系统签署的合同都包含了“有限使用政策”。我们不会允许模型用于大规模国内监控,也不会允许模型在能够避免的情况下被用于武器系统或相关系统。
这里有两项例外情形:
- 对武器系统的安全性与可靠性改进提供分析和建议;以及在国家安全情报能力范围内,以严格受限的方式支持武器研发。
- 由特定授权用户在“AI 不参与武器投放或目标选择决策”的前提下,使用模型去操作、管理和指挥武器系统。
例如,美国空军和首席数字与人工智能办公室(CDAO)已公开描述过一个落地案例:Claude 用于整合事件数据与报告,以提升战略行动质量。
我们仍然认为,与“战争部”合作带来的收益大于风险,尤其是在民主国家继续保持“负责任 AI 研发与国家安全部署”领先地位的前提下。
这也只是我们更广泛工作的一部分。AI 同样可以提升美国竞争力和经济繁荣。我们近期提出的政策建议以及对“白宫 AI 行动计划”的反馈,已经对此有所阐述。
我们欢迎各方对 Anthropic 参与美国国家安全工作的方式持续提出反馈。
Jim