Anthropic,这家由前 OpenAI 核心团队成员创立的人工智能公司,以开发可控、安全的生成式 AI 模型而闻名。近年来,它在大型语言模型领域迅速崛起,吸引了政府的关注。
2025 年 7 月,Anthropic 与五角大楼签署了一份价值 2 亿美元的合作合同,其中还涉及机密工作内容,这是五角大楼推进军事 AI 应用的重要项目。
也正如此前报道的,在合作过程中,Anthropic 明确提出了两大核心要求:
- AI 模型不得用于全自主武器系统;
- 不得用于对美国民众的大规模国内监控。
然而,五角大楼最终并不同意这些要求,双方产生了分歧。随后,美国国防部长皮特·赫格塞斯宣布 Anthropic 的技术存在“国家安全供应链风险”,并要求军工承包商暂停与该公司合作。
就在事情发生的数小时后,Anthropic 首席执行官达里奥·阿莫迪接受了哥伦比亚广播公司新闻(CBS News)的采访。阿莫迪将这次限制形容为“报复性和惩罚性的”,并表示公司一直在为政府使用其技术划定“红线”,因为“我们认为越过这些红线违背了美国价值观,而我们希望捍卫这些价值观。”
至于为什么 Anthropic 会如此坚持,以下是采访的详细内容:

CBS:非常感谢您抽出时间接受我们的采访。您是 Anthropic 的首席执行官 Dario Amodei,对吗?
Dario Amodei:是的,没错。
CBS:我的第一个问题是,为什么你们拒绝向美国政府无限制地开放 Anthropic 的 AI 技术?
Dario Amodei:在回答这个问题前,我们需要补充一些背景信息。
实际上,在所有 AI 公司中,Anthropic 在与美国政府和军方合作方面一直是最积极的。我们是第一家将模型部署在机密云端(Classified Cloud)的公司,也是第一家为国家安全目的定制模型的公司。我们的技术已应用于情报界和军方,涵盖网络安全、作战支援行动等多个领域。
我始终认为,我们必须保护国家免受对手的威胁。因此,我们一直表现得非常积极,拥有庞大的公共部门团队。但我始终相信,在保卫国家的同时,必须坚持并维护我们的民主价值观。
我们告诉过国防部,除了两个涉及核心价值观的用例,我们支持几乎所有(约 98% 到 99%)的用例。这两个红线是:
第一,国内大规模监视。我们担心 AI 可能会实现以前无法实现的大规模监视。例如,政府购买私营公司收集的散户数据,并通过 AI 进行大规模分析。这在目前并不违法,但在 AI 时代之前并不实用。现在技术发展太快,已经超出了法律的约束范围。
第二,完全自主武器。我们指的是在没有任何人类干预的情况下自动开火的武器。尽管我们的对手最终可能拥有这种武器,而我们也可能需要它来保卫民主,但目前我们有两个担忧:首先,目前的 AI 系统远不够可靠,无法制造完全自主的武器,AI 模型存在目前技术手段无法解决的不可预测性。其次是监管问题,如果拥有一支由无人机或机器人组成的庞大军队,而在谁是目标、向谁开火的决策中没有人类士兵参与,这会带来巨大的隐患。我们需要就如何监管这些行为进行对话,但这种对话尚未开启。
因此,我们坚信目前不应允许这两个用例。
CBS:五角大楼告诉我们,他们原则上已经同意了这两项限制,并希望达成协议。为什么最终没能达成共识?
Dario Amodei:这个过程经历了几个阶段。整个过程非常仓促,他们给了我们一个为期三天的最后通牒。在那期间有过几次反复。
有一次,他们发给我们的协议条款表面上符合我们的要求,但其中包含了一些模糊的措辞,比如“如果五角大楼认为合适”或“执行任何符合法律的操作”。这在实质上并没有做出任何有意义的让步。
五角大楼发言人 Sean Parnell 在前一天也重申了他们的立场,即“只允许所有合法用途”。这与他们发给我们的条款是一致的。所以,他们并没有以任何实质性的方式同意我们的限制条款。
CBS:特朗普今天针对此事发文称,“Anthropic 的自私正将美国人的生命置于危险之中,让我们的军队陷入险境,并危害国家安全”。您对此有何回应?
Dario Amodei:在昨天的声明和今天的回应中,我们都明确表示,即使国防部或特朗普政府对我们采取了前所未有的措施——比如通常针对外国对手使用的“供应链风险”认定——我们仍愿意尽一切努力支持国防部。我们将继续提供技术支持,直到他们能够顺利过渡并启用其他愿意接受这些条款的竞争对手产品。我们提供了服务的连续性,因为我们深知服务中断的严重性。
我曾与一线军官交流过,他们表示这些技术至关重要。如果我们撤出,将使相关进展推迟 6 到 12 个月甚至更久。这就是为什么我们一直在努力达成协议。但三天通牒和供应链认定的威胁,以及整个时间线都是由国防部驱动的,而非我们。我们一直在试图达成一项既能提供服务又能保障原则的协议。
CBS:那么,这对美国人的安全意味着什么?
Dario Amodei:短期内,这取决于国防部,我们仍在努力与他们沟通。虽然我们收到了各种讯息,但目前还没有看到任何能解决我们核心关切的方案。我想从宏观角度说明,我们仍有兴趣在符合红线的前提下与他们合作。
现在的局面是,由于我们被认定为“供应链风险”,他们要求我们退出所有系统。虽然我们与国防部还存在分歧,但现任国防部长 Hegseth 已将我们定性为供应链风险。我们双方确实还存在巨大的隔阂。
CBS:那么,在目前这种情况下,达成协议是否还有可能?
Dario Amodei:达成协议需要双方共同努力。就我们而言,我们愿意为国家安全服务,愿意向包括国防部和情报界在内的所有政府部门提供模型,前提是必须遵守我们的红线。我们并不是在针对特定的人或行政当局。我们之所以提供技术,是为了支持美国的国家安全,我们会继续这样做。
CBS:您为什么认为由 Anthropic 这样一家私营公司,而不是五角大楼,来决定 AI 在军事中的使用方式会更好?
Dario Amodei:首先,我认为很重要的一点是,据我们所知,目前前线并没有人真正触及这些红线的限制。这些限制只涉及 1% 的极端用例。目前我们的技术已经广泛应用于国防部和政府其他部门,没有遇到任何问题。
关于这两项狭窄的红线,我同意从长远来看我们需要进行民主讨论。我认为这是国会的职责。例如,关于国内大规模监视,政府购买关于美国人的个人信息、位置数据和政治倾向并利用 AI 进行画像分析,如果这被视为合法,说明司法对第四修正案的解释或国会通过的法律已经落后于技术的发展。
从长远来看,国会应该跟上技术的步伐。但目前我们是站在技术最前线的人。我本希望国防部能更深入地思考这些问题,与我们进行前瞻性的对话。在缺乏这种对话的情况下,我们必须根据技术现状、可靠性以及它如何规避法律意图来看待问题。这些是关乎美国人根本权利的原则,比如不被政府监视的权利,以及由人类军官而不是机器来决定战争行为的权利。
CBS:既然涉及根本原则,美国民众为什么要信任您——一个私营公司的首席执行官——而不是联邦政府来做决定?
Dario Amodei:我有两个理由。第一,我们是一家私营公司,有权选择向谁出售或不出售产品。如果政府不喜欢我们提供服务的方式,他们可以寻找其他承包商。这本应是处理此类问题的正常方式——即如果双方原则不一致,政府可以选择其他模型。
但现在的情况是,他们不仅试图撤销我们在国防部之外的合同,还动用了供应链认定手段,这实际上是在惩罚性地干预私营企业的行为。
CBS:您说你们为国家安全做了很多,并且坚持这两项限制。您认为 Anthropic 比五角大楼更了解情况吗?
Dario Amodei:在自由市场中,不同的主体可以根据不同的原则提供不同的产品。我们的模型不仅是法律条款的集合,它还有自己的“性格”,有它擅长和不擅长的事情。我认为我们最了解自己模型的可靠性界限。
我再次重申,长期由私营公司和五角大楼争论这些问题是不可持续的。国会需要介入,建立一些既不阻碍我们击败对手,又符合国家价值观的护栏。但国会行动并不迅速,在此期间,我们必须划定底线。
CBS:波音公司为美军制造飞机,但波音不会告诉军方如何使用这些飞机。这有什么不同吗?
Dario Amodei:不同之处在于技术的成熟度。当一项技术已经非常成熟时,比如飞机,将军们对其运作方式有深刻的理解。
CBS:但航空航天领域也有很多创新。
Dario Amodei:确实,但创新的速度完全不同。AI 正处于指数级增长趋势中,模型计算量每四个月翻一番。我们从未见过如此之快的创新速度。如果这种速度持续下去,政府将永远无法跟上。但这并不意味着我们要背弃政府。
问题虽然不多,但非常关键。国内大规模监视并不能帮助美国追赶对手,它只是对政府权力的滥用。至于完全自主武器,虽然我们未来可能需要追赶对手的进度,但现在的技术还没准备好。我们愿意与国防部在“沙盒”环境中进行原型开发,但他们坚持要从一开始就拥有不受限制的处置权。
我们必须在“击败对手的迫切需求”和“正确的战斗方式”之间取得平衡。如果对手犯下战争罪,难道我们也应该效仿吗?这关乎价值观的本质。我们必须在赢得胜利的同时保留这些价值观,而不是陷入彻底的底线竞争。AI 可以极大地加速我们军队的能力,但这不能成为抛弃原则的理由。
CBS:如果你们的对手已经追赶上来,甚至已经超越了我们,如果我们的军队在保卫民主和共和方面至关重要,为什么还要坚持现在的立场?
Dario Amodei:这是一个抽象的论点,让我们回到那两个具体的用例。国内大规模监视对追赶对手毫无帮助。至于完全自主武器,我确实担心我们需要保持竞争力,但目前技术尚不可靠。我们并没有绝对禁止研究,只是认为需要就监管和“谁来按下按钮”进行对话。我们愿意提供 99% 的支持,为什么非要纠结于那 1% 违反价值观的用例呢?
CBS:如果发生意外,会是什么样的情况?
Dario Amodei:会有两类风险。第一是可靠性问题,比如 AI 识别错误,导致误伤友军或平民。如果模型不可靠,我们不想出售可能导致无辜平民死亡的产品。第二是问责制问题,人类士兵有一套完整的问责链。如果一个人控制着一千万架无人机,权力过于集中,问责制就会失效。这并不代表我们不该拥有这种无人机集群,但我们需要讨论谁来负责,谁有权说“不”。
CBS:特朗普总统称 Anthropic 是“左翼觉醒公司”。您的决定是否受到了意识形态的影响?
Dario Amodei:我无法代表其他人的言论。但对于 Anthropic 来说,我们一直努力保持中立。我们只在拥有专业知识的 AI 政策问题上发声,不参与一般的政治议题。我们寻求合作的共同点。
例如,我曾前往宾夕法尼亚州与拜登总统和 McCormick 参议员讨论如何提供足够的能源来支持美国的 AI 发展。我们还就 AI 辅助医疗等议题签署了行政承诺。我们一直致力于保持客观平衡,我们无法控制包括总统在内的其他人对我们的看法,我们能控制的是保持理性、中立并坚持信仰。
CBS:从 1 到 10 打分,您认为未来是否还能与联邦政府达成协议?
Dario Amodei:我没有预测未来的水晶球。我们的立场从第一天起就很明确,我们不会在红线上退缩。如果国防部能和我们达成共识,那就有可能。为了国家安全,我们希望促成这件事,但这需要双方的努力。
CBS:如果您现在能直接对总统说话,您会说什么?
Dario Amodei:我会说,我们是爱国的美国人。我们所做的一切都是为了这个国家,为了支持国家安全。我们积极将模型部署在军事领域,正是因为我们相信美国,相信必须战胜威权对手。我们划定红线是因为我们相信,超越这些红线违背了美国的价值观。
当我们受到“供应链风险认定”和《国防生产法》的威胁时,这是政府对私营经济前所未有的干预。我们行使了宪法第一修正案赋予的权利,表达了与政府不同的意见。而提出不同意见正是美国精神的体现。
CBS:您认为 Anthropic 作为一个企业能挺过这一关吗?
Dario Amodei:当 Hegseth 发布关于供应链认定的推文时,他的一些说法是不准确的,超出了他们的法律权限。他声称任何拥有军事合同的公司都不能与 Anthropic 合作,这不符合法律规定。根据法律,这种限制仅限于那些公司自身的军事合同部分,影响范围要小得多。
我们不仅能生存下去,而且会发展得很好。那条推文的本质是为了制造不确定性、恐惧和怀疑。我们不会让这种企图得逞。
CBS:批评者认为五角大楼和白宫的行为是滥用权力。您认同吗?
Dario Amodei:我只能说这是前所未有的。这种认定从未被用于美国公司,而且相关言论显然带有报复性和惩罚性。目前我们只收到了一条推文,还没有收到任何正式的行政文书。一旦收到正式行动文件,我们会依法在法院提出挑战。
CBS:如果这就是他们与你们沟通的方式,您认为这反映了他们处理重大国家安全问题的能力如何?
Dario Amodei:我不想把这变成针对特定行政当局或特定个人的攻击。我们致力于通过各种方式支持美国国家安全,这就是为什么我们努力达成协议。如果无法达成,我们也会确保平稳过渡,不让前线战士失去支持。我们要捍卫的是,在不违背国家价值观的前提下,坚持做正确的事。
来源:https://www.youtube.com/watch?v=MPTNHrq_4LU

