近期,以「AI安全卫士」自居的Anthropic,在五角大楼的强硬施压下,不仅放宽了Claude的军事应用限制,还彻底放弃了2023年立下的「安全不达标就暂停训练」核心承诺。这是否意味着,AI伦理的自主约束时代已经落幕?

五角大楼的AI军备焦虑:从依赖到施压

五角大楼对Anthropic的强硬,本质是AI军备竞赛下的焦虑。此前双方已签署2亿美元合同,Claude是美军机密网络中唯一授权运行的AI模型,还曾参与委内瑞拉「马杜罗突袭」行动,其性能优势是军方依赖的核心。

但新任国防部长皮特·海格塞斯的备忘录打破了平衡--要求所有军方使用的AI必须移除所有限制。这背后,是美军希望AI能完全服务于军事决策,而非被企业的伦理条款束缚。更关键的是,五角大楼早已备好备胎:几乎同一时间,xAI与军方达成协议,Grok将完全开放军事用途。

这种「打拉结合」的策略,暴露了美军在AI供应链上的布局逻辑:既依赖头部AI公司的技术能力,又通过引入竞争避免被单一厂商绑架。对于Anthropic来说,拒绝就意味着失去2亿美元合同,甚至被打上「供应链风险」标签,彻底退出军方市场。

Anthropic的妥协:理想主义向商业现实低头

Anthropic曾是硅谷AI安全的标杆,CEO达里奥·阿莫代一直将AI安全约束与技术开发置于同等地位。此次会面中,Anthropic最初还试图保留两条红线:禁止用于美国民众大规模监控、禁止开发自主致命武器,但这在五角大楼看来是对军事决策权的僭越。

除了军方的压力,Anthropic的妥协还有更深层的商业考量。近期完成300亿美元G轮融资后,公司估值达到3800亿美元,需要持续的大额订单支撑估值增长。而军方作为全球最大的AI采购方之一,是任何AI公司都无法忽视的客户。

更重要的是,硅谷的AI竞争已经进入白热化阶段。OpenAI、Google DeepMind等对手都在积极拓展政企客户,Anthropic如果坚守安全底线,可能会在市场竞争中逐渐掉队。放弃核心安全承诺,本质是在生存与理想之间选择了前者。

AI伦理的拐点:从企业自治到政企博弈

Anthropic的妥协,标志着AI伦理治理的一个重要拐点。此前,硅谷的AI公司普遍通过自我约束来建立信任,比如OpenAI的安全框架、Anthropic的「宪法AI」。但这次事件证明,当企业利益与国家权力发生冲突时,企业的自主约束不堪一击。

这也引发了一个更深层的问题:AI伦理的边界到底该由谁来定义?是追求商业利益的企业,还是代表国家利益的政府?目前全球范围内,AI军事应用的监管几乎处于空白状态,各国都在加速AI军事化,却没有统一的规则约束。

对于普通用户来说,这也意味着潜在的风险。如果AI模型被完全开放给军方使用,那么AI技术可能被用于更广泛的监控、自主武器开发等,最终可能反噬民用领域。比如,用于军事监控的AI技术,未来可能被用于国内治安,侵犯用户隐私。

未来,AI安全的治理模式很可能从企业自治转向政企共治。政府会通过立法、政策等手段强制规范AI的使用,而企业则需要在合规的前提下平衡安全与商业利益。对于Anthropic来说,这次妥协可能只是开始,更多的AI公司会在国家权力的压力下调整自己的安全策略。

我们需要警惕的是,AI军事化的加速可能会引发新一轮的全球AI军备竞赛,而普通用户的隐私和安全可能会成为被牺牲的代价。建立全球统一的AI伦理框架,已经成为迫在眉睫的任务。