Anthropic守住了底线,但救不了AI不进战场

图片[1]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

2026年2月27日,美国东部时间下午5:01。

特朗普在Truth Social发出封杀令:所有联邦机构,即刻停用Anthropic的一切AI服务。国防部长Pete Hegseth跟着宣布,将Anthropic列为"国家安全供应链风险"。这个标签,此前只贴给华为、中兴这样被认定为"可能受敌对政府控制"的企业。

然后,就在封杀令颁布后的几小时内,美国中央司令部联合以色列,对伊朗发动了大规模空袭。

整个行动中,美军用于情报评估的工具、辅助目标识别的系统、战斗场景模拟器,还是Claude。

就是那个刚刚被特朗普"封杀"的Claude。

看到这条新闻的第一反应:荒诞。不是政治意义上的荒诞,是字面意义上的荒诞:一个政府用行政命令宣布封杀一款软件,同时它的军队还在用这款软件辅助作战决策。

这不是电影情节。这是2026年2月27日真实发生的事。

Claude在美军里究竟做了什么

Claude进入美军体系,不是偷偷摸摸发生的。

早在2024年11月,Anthropic就和Palantir、亚马逊AWS合作,开始向美国国防和情报系统提供Claude服务,包括机密环境。2025年6月推出了专门针对政府和国家安全工作流的Claude Gov版本。2025年7月,正式和国防部签下一份为期两年、上限2亿美元的合同,成为第一家获准进入国防部机密网络的AI公司。

白纸黑字,公开合作。

图片[2]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

具体在军队里干了什么?粗线条来说:生成情报评估报告、辅助目标识别、推演战斗场景、支援网络作战。前五角大楼AI主导者、退役空军中将Jack Shanahan事后说了一句话:你找不到一个在军事系统中拥有更广泛和更深层渗透的系统。

注意,他用的词是渗透。

不只是中央司令部,美军全球多个司令部都在用Claude。它是整个国防部机密网络上仅有的两个大型生成式AI模型之一,而且是其中唯一的前沿模型。

还有一条信息流传没那么广,但我觉得才是真正让人发愣的部分:据知情人士透露,Anthropic为军方打造的定制版Claude,比我们现在能用到的最新版本领先一到两代。

我们现在用的Claude,已经能写代码、做分析、当助手了,强到不少人觉得自己快被替代。而美军用的,可能是领先这个两代的版本。那是什么水平的AI,在参与什么量级的决策?

没有人知道答案,包括Anthropic自己。

这一点很重要,后面再说。

2亿美元,买的不是AI,是一场权力博弈

很多人把这次冲突归结为钱的问题:五角大楼2亿美元的合同,Anthropic不配合就断掉。

2亿美元对一家估值3800亿美元、年营收超140亿的公司来说,算什么存亡之战?Hegseth给出的最后通牒是:2月27日下午5:01之前,放弃一切使用限制,允许军方以"所有合法目的"无限制使用Claude。

Anthropic拒绝了。

图片[3]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

真正在博弈的是两个更深的问题。

第一,谁来定义"合法"。五角大楼的逻辑是法律允许的都可以用,但Amodei指出的恰恰是:AI改变了"可能"的边界。对本国公民实施大规模监控,这件事在法律文本上没有明确禁止,只是在AI出现之前你根本没有技术能力去做。现在有了,而法律还没来得及反应。

第二,谁来决定边界。五角大楼要的是一把随时可以拿起来用的枪,不带任何额外限制。Anthropic坚持在枪上装一个保险,他们愿意支持军方98%到99%的使用场景,就是不肯去掉那个保险。

Hegseth在X上说得很直白:他们真正的目的昭然若揭:夺取对美国军事行动决策的否决权。

你品一下这句话的逻辑:一家私营公司对自己产品设定使用限制,就等于夺取否决权。

看到这句话,我脑子里嗡嗡的。

Dario Amodei在CBS说了什么

封杀令下来没多久,Anthropic首席执行官Amodei在CBS接受了独家采访。

图片[4]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

他的姿态不是激烈反驳,更接近一种认了但没全认的坦诚:我们愿意合作,但有两件事不能碰。

他先表态:我们是爱国的美国人,不是在和军方作对。Anthropic同意军方约98%到99%的使用场景,网络防御、导弹防御、情报分析,都行。

两条红线不能动:不能用于大规模监控美国本国公民,不能开发完全自主的致命武器系统。

为什么不能动?他说了一句很关键的话:大规模AI监控并不违法,只是在AI出现之前从未有用武之地。技术进步已经超越了法律的速度。

意思是:法律没说不行,但我们认为不对,所以不做。

一家公司,在没有法律明文禁止的情况下,凭自己的道德判断,拒绝了政府的要求。在这之前,没有哪家科技公司做过这件事。至少没有哪家做得这么明着来。

关于自主武器,他说得更直接:当今的AI系统远未达到制造完全自主武器所需的可靠性;任何使用过AI模型的人都知道,它们有一种基本的不可预测性,这是我们在技术层面还没解决的问题。

翻译成人话:AI还经常一本正经地胡说八道。让这样的系统去做"杀还是不杀"的决定,出了事谁背?

没人能背。这才是问题所再。

特朗普为什么要封杀Anthropic

特朗普在Truth Social上的原话是:美利坚合众国绝不允许一家激进左翼、觉醒主义公司来决定我们伟大的军队如何作战!那是你的最高统帅的权力……Anthropic那帮左翼疯子犯了一个灾难性的错误,试图强迫战争部遵守他们的服务条款,而不是我们的宪法。

抛开"左翼""觉醒"这些标签,特朗普想要什么?控制权。

他的逻辑本身不是完全没有道理:军队怎么打仗,应该由三军统帅说了算,不该被一家私营科技公司的服务条款卡着。换成传统武器,没有人会说枪械制造商有权规定军队怎么用枪。

图片[5]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

但AI不是枪。

枪不会"分析",不会"判断",打偏了是人的问题。AI不一样,它的输出会直接影响人的决策,一旦参与目标识别,它就不再只是工具,而是变成了一个决策节点。这时候谁来设置边界,不是合同层面的问题,是真实的道德问题。

特朗普政府不这么看。他们的结论是:软件供应商干涉了国家军事行动的主权,不可接受。所以Hegseth给Anthropic贴上了那个"供应链风险"的标签。这个标签此前只保留给华为、中兴这样被认定为可能受敌对政府控制的企业。

把它贴在一家美国本土公司身上。这件事本身就说明他们有多需要一个能够合理化封杀的借口。

OpenAI的那一刀,捅得非常及时

封杀令颁布的同一天深夜,OpenAI官宣:已与五角大楼签署协议,将AI工具部署进军队机密系统。

同行如敌国,商业世界的铁律。

但这里有个关键细节容易被忽略:OpenAI签的协议,同样包含类似的护栏,禁止大规模监控,禁止完全自主的致命武器。Sam Altman甚至公开说,他基本信任Anthropic,认为他们真的关心安全。

然后他转身签了那份包含几乎同款条款的合同。戏剧化的一幕出现了,OpenAI拿下了军方订单,OpenAI付费用户开始退订,OpenAI被那么多人diss。Anthropic则口碑大涨,用户爆单。借着这波流量,Anthropic甚至推出了“一键搬家”功能方便Chat用户搬到Claude。

谁都不是省油的灯。OpenAI偷了Anthropic的订单,Anthropic抢了OpenAI的用户。

回到事件本身。五角大楼与OpenAI签了合同,说明什么?五角大楼不是真的不能接受任何护栏。他们在Anthropic这里接受不了,在OpenAI那里接受了。

所以到底争的是什么?

这里有两种猜测:要么Anthropic的红线确实比OpenAI更严苛,某些细节他们死咬不放;要么这场冲突从一开始就是一次权力试探,AI的使用边界,到底是政府说了算,还是科技公司说了算。

答案现在很清楚了:OpenAI赢了一笔生意,Anthropic丢了一份合同,但某种意义上守住了一条线。

那条线值多少钱,大家心里有杆秤。

Anthropic也不知道,军方在用Claude做什么

说到这里有个细节不能不提,因为它是这整件事里最让人发凉的部分。

Anthropic提供的是大模型本身,不是最终系统。军方的Claude跑在AWS的机密云上,通过Palantir平台集成进去。这意味着Anthropic看不到军方拿Claude在做什么,看不到进去的原始数据,也看不到出来的结论。

他们签了协议,划了红线,但红线之内发生了什么,他们不知道。

图片[6]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

一个卖刀的,把刀卖给买家,约定好不能伤人。然后门关上了,里面发生什么,卖刀的不知道。问题是这把刀不只是在厨房里切菜,有时候在别的什么地方,而你只有一张合同和对方的一个口头承诺。

委内瑞拉抓马杜罗的行动用了Claude,对伊朗空袭用了Claude。这些是已经被披露的。没被披露的呢?

没人知道。

这不是Anthropic的失职,是AI军事化过程里一道根本绕不过去的结构性问题:技术提供方和使用方之间,存在一条永远填不平的信息鸿沟。你造出了工具,但失去了对工具用途的观察权。

AI在战场上能做什么

既然说到这里,不如把话说清楚:AI在战场上到底干什么用。

情报分析是目前落地最稳的一块,争议也最小。海量卫星图像、截获的通讯、社交媒体信息。原本需要一个情报团队泡好几天的活,AI处理起来快得多。这部分争议不大,因为最终拍板的还是人。

图片[7]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

目标识别是开始出问题的地方。给AI看图,让它判断这是不是军事目标,平民还是战斗人员。AI的准确率再高也不是100%,搞错了是人命,而且你不知道哪次会搞错。接下来还有作战规划辅助,基于现有情报模拟不同打法的推演,给指挥官提供参考。Claude在伊朗空袭里扮演的"战斗场景模拟",大致就是这一类。

网络作战方面AI也早就大规模落地了,乌克兰战场是最直接的试验场,俄乌双方都在玩这套。

最后是完全自主武器:AI自己发现目标,自己决定打不打,整个回路里没有人类决策节点。这是Anthropic死守的红线,官方说法是尚未大规模部署。但乌克兰战场上有些无人机系统已经非常接近这条线了,差的可能只是一个政策豁免。

从预算角度你能感受到美军的决心:2025财年C4I系统(指挥、控制、通信、计算机和情报)投资211亿美元,比2024财年的145亿美元涨了45.5%。这不是试验经费,这是战略资金。

这个潘多拉魔盒,其实早就开了

有些人可能觉得,2026年2月27日是AI进入战争的历史转折点。

不是。

OpenAI在2024年初悄悄修改了使用政策,把"禁止军事和战争用途"的条款删掉了。Google此前承诺"不将AI用于武器或监控",后来也改口了。乌克兰战场上AI辅助的无人机系统早就在跑,以色列在加沙使用AI目标识别的争议已经持续了很长时间。

盒子早就开了。

今天看到的,不是一个起点,而是一个明面化的时刻。AI军事应用从"大家都知道但都没挑明",变成了"摆上台面、没法装不知道"。这两者有本质区别。

博弈论的逻辑摆在那里:AI军备竞赛和核竞赛走的是同一套路。一旦有一方开始用,其他方就被迫跟进,不跟就是单方面解除武装,没有哪个政府会选那条路。乌克兰在用,俄罗斯在用,以色列在用,美国中央司令部现在公开坐在这张桌子上了。

这不是危言耸听,这是正在发生的现实。军事AI市场2025年估值约80亿美元,预计年均增速15%。这种规模的资本流向,靠一家公司的道德坚守是拦不住的。

科技向善,这四个字有多沉

2018年,Google内部爆发了Maven项目抗议,数千名员工联署,反对公司参与美军AI无人机计划,最终Google宣布不续签。那一年,硅谷好像还有一些共同的道德底线。

2026年,超过300名Google员工和超过60名OpenAI员工联署公开信,支持Anthropic,要求各自公司拒绝五角大楼的单方面要求。

数字少多了,结果也没改变任何事情。

图片[8]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

科技界反对AI武器化,是真实存在的声音,不是表演。但市场的逻辑、国家安全的逻辑、竞争的逻辑,都比道德逻辑有力。背后是几百亿的国防AI市场,总有人愿意接单,总有人说"我不做有人做"。

Anthropic拒绝了,OpenAI当天深夜就补位了。OpenAI也拒绝的话,Palantir、Anduril这些专门做军事AI的公司在旁边等着呢。这条流水线,某一个节点说不,它只是换个供应商,不会停转。

这才是这件事真正让人泄气的地方。个人的道德选择在结构性力量面前,往往只是延缓,不是阻止。

Amodei自己大概也清楚这一点。他没有幻想自己能"阻止AI军事化",他做的是在能控制的范围内划下两条线,然后死守。已经是他能做的全部了。

六个月,比封杀令更能说明问题

白宫说:五角大楼有六个月时间,逐步淘汰Anthropic的系统。

六个月。

这个数字比封杀令本身更有意思。它说明的是:Claude在美军系统里嵌入之深,想拔出来需要半年。这不是一个可以随时换掉的API接口,而是已经融进情报分析流程和作战规划链条里的东西。委内瑞拉行动里积累的数据、伊朗空袭里跑顺的流程、整支情报团队训练出来的操作习惯。要换成新的AI同时还要保证作战能力不掉,没有半年做不到。

六个月,是一张已经形成了依赖关系的诊断书。

有人问:这是不是意味着美军会越来越离不开AI,最后完全靠AI做决策?

某种程度上,已经在那条路上了。

但我更担心的不是依赖本身,而是依赖之后会发生的路径锁定。当AI深度嵌入军事决策,当没有AI就打不了仗成为常态,再想在这个体系里谈限制AI应用,就是在锯自己脚下的树枝,没有人会批准的。无人机刚进战场那几年,也有很多人担心、反对、呼吁监管。现在它是标准装备,没人再追问无人机该不该出现在战场了。

AI会走同一条路。这不是预言,是规律。

如果你是Anthropic,你会怎么选

最后说一个很多人跳过了的问题:Anthropic到底是好人还是坏人?

标准答案是:他们是英雄,面对政府压力没有妥协,守住了道德底线。

这个答案太好看了,好看到有点失真。

图片[9]-Anthropic守住了底线,但救不了AI不进战场-AI Express News

Anthropic从2024年11月就开始向美军提供Claude服务,包括机密环境。他们签了2亿美元的合同,开发了专门给国家安全工作流用的版本Claude Gov。他们的模型出现在委内瑞拉抓捕行动里,出现在伊朗空袭里。

他们的真实立场,不是"反对AI军事化",而是"在我们的条件下,可以军事化"。

这两件事有根本的区别。

我不是要批评Anthropic。在这个处境里,他们已经算是走了最难走的那条路。划两条红线并且死守是要付出代价的,他们付了。但清醒的看法是:Anthropic的存在,没有阻止AI进入战场;他们的护栏,保护不了Claude在军方私有云上被拿去做什么;他们能做的,更接近尽量减少伤害,而不是阻止伤害。

这是AI公司面对国家机器时的真实处境:可以说不,但说不换来的不是停止,而是换一家说是的公司。

有人说,Claude的军事部署是天网的雏形。这个比喻准确到一半:它确实已经嵌进了国家暴力机器的核心运作。但天网是一个中央化的AI觉醒,现实远比这混乱、分散,也更难被叫停。没有一个能一键关掉的开关,而是到处都是碎片化的半自动决策节点,散布在全球各个指挥部的机密服务器里。

这反而更令人不安。

写在最后

2026年2月27日,是一个值得记住的日期。不是因为那道封杀令,也不是因为特朗普骂人的帖子,更不是因为OpenAI当晚的补位。

而是因为那一天,AI参与现代战争这件事,从业内心照不宣的秘密,变成了全球都知道、谁也没办法的事实。

都说技术向善。但在军事和政治的压力下,AI很难从善。不是因为AI本身邪恶,而是因为使用AI的人有时候根本不在乎善恶,他们只在乎赢。而赢的逻辑,从人类开始打仗的第一天起就从没变过。

AI只是让这场游戏,玩得更快、更准、更没有犹豫的余底了。

"AI会不会用于战争"这个问题已经有答案了。现在真正的问题是:这种博弈螺旋,有没有任何一个人、任何一个机构,有能力在它完全失控之前划下一道有效的边界?

我不知道。Amodei大概也不知道。

但这件事已经开始了,而大多数人,甚至还没意识到它的真实规模。


参考来源:

  • https://www.nbcnews.com/tech/tech-news/trump-bans-anthropic-government-use-rcna261055
  • https://fortune.com/2026/02/28/anthropic-ceo-dario-amodei-patriotic-americans-trump-hegseth-mass-surveillance-autonomous-weapons/
  • https://www.cbsnews.com/news/pentagon-anthropic-dario-amodei-cbs-news-interview-exclusive/
  • https://www.techpolicy.press/a-timeline-of-the-anthropic-pentagon-dispute/
  • https://m.huxiu.com/article/4838001.html
  • https://36kr.com/p/3705032837788040
  • https://federalnewsnetwork.com/artificial-intelligence/2026/02/anthropic-refuses-to-bend-to-pentagon-on-ai-safeguards-as-dispute-nears-deadline/
  • https://www.wionews.com/world/ai-in-warfare-is-here-pentagon-used-anthropic-s-claude-ai-in-iran-strikes-but-it-has-many-llms-and-tools-from-other-firms-what-we-know-1772372063341
  • https://www.npr.org/2026/02/27/nx-s1-5729118/trump-anthropic-pentagon-openai-ai-weapons-ban
  • https://www.anthropic.com/news/statement-department-of-war

 

全文完

看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,也可以给个星标,你的支持就是我的动力。

王吉伟频道新书《一本书读懂AI Agent:技术、应用与商业》已出版,轻松读懂系统掌握AI Agent技术原理、行业应用、商业价值及创业机会,欢迎大家关注。

【赠书福利】

感谢大家长期关注与支持,小伙伴们随意留言,王吉伟频道会随机选取留言用户,《一本书读懂AI Agent:技术、应用与商业》包邮到家。

文末福利1】:后台发消息 研报2026,获取15篇2026年AI Agent研报。 
图片
【文末福利2】:后台发消息 Workflow,获取Agentic Workflow相关25篇论文。
图片
【文末福利3】:后台发消息 agentic,获取Agentic AI相关资源
图片
【文末福利4】:后台发消息 RPA Agent,获取相关论文和研报。
图片
 
图片
 
RECOMMEND
 

推荐阅读

1、一本书读懂AI Agent技术、应用与商业,我写的新书出版了
2、【万字长文】数字员工、具身智能,AI Agent未来发展十大研究方向
3、一切皆可Agent Skills,无处不在的AI Agent会替代业务流程吗?
4、AI Agent发展简史,从哲学思想启蒙到人工智能实体落地
5、企业AI Agent战略级规模化落地方法论,Agentic AI Stack for Enterprises
6、五层结构AI Enablement Stack,把真正可用AI Agent技术栈生态讲透了
7、智能体主题分享:DeepSeek、Manus与AI Agent行业现状,附PPT下载
8、十篇AI Agent研报,看懂2025年全球智能体行业全景,附下载
8、API难以解决AI智能体执行能力问题,AI Agent深度落地锁定RPA
10、RPA终极发展方向瞄准AI Agent,超自动化智能体时代已经开启

<原文链接:https://mp.weixin.qq.com/s/BuaZkcXtzVqognnTuUvzHA

© 版权声明
THE END
喜欢就支持一下吧
点赞9 分享
王吉伟的头像-AI Express News
评论 抢沙发

请登录后发表评论

    暂无评论内容