“仅仅因为你对政治不感兴趣,并不意味着政治不会对你感兴趣。”——伯里克利
这篇文章并不是在讨论美国针对伊朗展开的行动,但这件事提供了一个有用、而且非常及时的类比。围绕“国际法”这一概念以及究竟是谁在违反它,可以争论到天荒地老。有人会说美国的袭击违反了国际法;也有人会指出,伊朗在我有生之年一直通过其公开行动以及对恐怖网络的支持,持续地违反国际法。
真正重要的是:整场争论最终其实没有意义。所谓“国际法”这个概念是虚的——并不是说相关法条和协定不存在,而是因为它们的有效性最终取决于可执行性。而这又意味着必须有一个具备相应能力、能够实施强制执行的实体;但这样的实体并不存在。
是的,有联合国,但这个机构只能在成员国同意的前提下运作;成员国不仅要愿意接受其法令约束,还要愿意拿出执行这些法令所需的能力。换句话说,真正起作用的行为体只有主权国家本身,而这些国家之间的相对力量并不取决于律师和法官,而取决于它们投射武力、胁迫他者的能力。
换个说法:如果经历了这个周末之后,你还想坚持“国际法”这个概念,那也该承认争论已经有结论了:伊朗“违法”,因为它的军队刚被美国狠狠干趴下了——这意味着美国来决定谁对谁错。
Anthropic vs. 战争部
当美国大多数人、以及几乎整个世界都在关注伊朗局势时,科技圈里也在进行另一场激烈争论。争论的一方依然是美国政府,另一方则是私营公司 Anthropic。来自《华尔街日报》:https://www.wsj.com/tech/ai/trump-will-end-government-use-of-anthropics-ai-models-ff3550d9
联邦政府将停止与 Anthropic 合作,并将这家人工智能公司定性为供应链风险——这是政府与该公司围绕其技术能否被五角大楼使用之争的重大升级。就在 Anthropic 与政府关系跌入新低之际,竞争对手 OpenAI 周五晚表示,已与国防部达成协议,让其模型可用于机密场景;而直到最近,这一资格还只有 Anthropic 拥有。五角大楼与两家硅谷宠儿在周五的快速博弈,势必将塑造联邦政府、尤其是五角大楼未来如何使用前沿 AI 工具。
Anthropic 在本周稍早时通过一份声明表明了立场:https://www.anthropic.com/news/statement-department-of-war
在少数特定场景下,我们认为 AI 可能会削弱而非捍卫民主价值。一些用途也确实超出了当今技术能够安全、可靠实现的边界。以下两类用例从未被纳入我们与战争部的合同,我们认为现在也不应纳入:
- 大规模国内监控。 我们支持在合法前提下将 AI 用于境外情报与反情报任务。但将这些系统用于国内大规模监控,与民主价值不相容。AI 驱动的大规模监控给基本自由带来严重且新的风险。即便这类监控在当下法律框架内“合法”,也只是因为法律尚未跟上 AI 能力的快速增长。例如,在现行法律下,政府无需搜查令即可从公开来源购买美国人的详细行动轨迹、网页浏览和社交关联记录。情报界已承认这会引发隐私担忧,国会两党也都对此表示反对。强大的 AI 让系统能够将这些分散、单看并不起眼的数据自动整合为任何个人生活的全景图,而且规模巨大。
- 完全自主武器。 像今天乌克兰使用的那类“部分自主武器”对民主防卫至关重要。甚至完全自主武器(即完全把人类移出决策环路,自动选择并打击目标)也可能对国家防务至关重要。但当前前沿 AI 系统还远不够可靠,无法驱动完全自主武器。我们不会明知故犯地提供让美国作战人员和平民暴露于风险中的产品。我们曾提出与战争部直接合作研发,以提升这些系统可靠性,但对方没有接受。并且在缺乏适当监督的情况下,完全自主武器无法做出我们高度训练、专业军人每天都会做出的关键判断。它们需要在适当护栏下部署,而今天这些护栏并不存在。
据我们所知,这两项例外迄今并未妨碍在我军内部加速采用和使用我们的模型。
战争部表示,只会与同意“任何合法用途”并移除上述场景安全护栏的 AI 公司签约。若我们坚持这些护栏,他们威胁将我们移出其系统;还威胁将我们定性为“供应链风险”——这一本用于美国对手、从未用于美国公司的标签——并援引《国防生产法》强制移除护栏。这两项威胁本身互相矛盾:一方面说我们是安全风险,另一方面又说 Claude 对国家安全不可或缺。
无论如何,这些威胁不会改变我们的立场:我们无法在良知上同意他们的要求。
老实说,在这次事件之前我并不知道国家安全局(NSA)属于战争部;这一点确实为“监控”争议提供了有用背景。并且,正如十年前斯诺登揭露的那样,NSA 在“什么叫合法监控”的解释上既激进又富有创造力。人们或许曾希望,尤其是电信公司,能够像 Anthropic 那样站出来。
但与此同时,如果不是由法律(而法律由民选国会通过)来界定“什么允许、什么不允许”,那又该按什么标准?Anthropic 的立场是:应由 Amodei(我这里把他作为 Anthropic 管理层和董事会的代称)来决定其模型用途,尽管 Amodei 并非民选,也不对公众负责。
再看第二点:谁来决定美国军事能力在何时、以何种方式使用?这是战争部的职责,而战争部最终向总统负责,总统同样是民选产生。但 Anthropic 的立场依然是:一个不对公众负责的 Amodei,可以单方面限制其模型用途。
还值得注意的是,有报道称 Anthropic 的担忧可能不止“完全自主武器”。来自 Semafor:https://www.semafor.com/article/02/17/2026/palantir-partnership-is-at-heart-of-anthropic-pentagon-rift
Anthropic 是少数可供美国政府在机密环境使用的“前沿”大语言模型之一,因为它可通过亚马逊的 Top Secret Cloud 以及 Palantir 的人工智能平台使用。也因此,官员在监控对时任委内瑞拉总统尼古拉斯·马杜罗的抓捕行动时,屏幕上出现了 Claude 聊天机器人……
在马杜罗行动后不久,Palantir 与 Anthropic 一次例行沟通中,Anthropic 一名官员与 Palantir 高管讨论了该行动。Palantir 高管从交流中感到,这家 AI 初创公司并不赞成其技术用于该目的。该高管对 Anthropic 的暗示感到警惕——公司可能会抵制其技术被用于美国军事行动——并将谈话反馈给了五角大楼,一位国防部高级官员称。
Anthropic 否认其反对 Claude 在马杜罗行动中的任何参与,但 Semafor 的报道与科技圈一部分人“抵制参与任何军事行动”的趋势相当吻合。就这点而言,也可以说这场对峙正在以它“应有”的方式收场:Anthropic 及其模型将被移出战争部技术栈,由替代方案补位。
朝鲜与核武器
Amodei 在 AI 与国家安全的其他问题上同样非常高调。彭博社今年一月报道:https://www.bloomberg.com/news/articles/2026-01-20/anthropic-ceo-says-selling-advanced-ai-chips-to-china-is-crazy
Anthropic 首席执行官 Dario Amodei 表示,在美国准备允许英伟达向北京出售 H200 处理器之际,向中国出售先进 AI 芯片是一个“对国家安全有惊人影响”的错误。“把这些芯片运过去会是巨大失误,”Amodei 在瑞士达沃斯世界经济论坛接受彭博总编辑 John Micklethwait 采访时说,“我认为这太疯狂了。这有点像把核武器卖给朝鲜。”
这番话其实把一个原本混乱的采购争议抬到了更高层级:如果按 Amodei 的类比字面理解,其含义相当惊人。
先看伊朗:除伊朗长期在中东及其他地区造成数千美国人死亡之外,美国干预的一项理由是伊朗持续追求核武能力。朝鲜正好说明了原因:朝鲜不需要买核武,因为它已经有了;这显然让任何潜在军事行动都复杂得多。核武器会让你在(并不存在的[1](#fn1-18410 "是的,海牙是存在的;但它受限于与联合国相同的结构性问题"))“国际法法庭”里成为一个非常有效的“律师”!
简言之,核武器会实质性地倾斜力量平衡;如果 AI 具有同等级别的重要性,那么美国不仅会更在意 Anthropic 允许它对模型做什么,也会更在意 Anthropic 本身“被允许做什么”。
我认为这为将 Anthropic 定性为供应链风险提供了关键背景。战争部长 Pete Hegseth 在 X 上说:https://x.com/SecWar/status/2027507717469049070
配合总统关于联邦政府全面停止使用 Anthropic 技术的指令,我正指示战争部将 Anthropic 定性为国家安全供应链风险。即刻生效,任何与美国军方有业务往来的承包商、供应商或合作伙伴,不得与 Anthropic 开展任何商业活动。
这会重创 Anthropic:至少公司依赖 AWS、微软和谷歌的云服务,而这些公司都与战争部签有合同;英伟达大概率也是如此。好在对 Anthropic 而言,Hegseth 的声明看起来确实与法律不完全一致:https://uscode.house.gov/view.xhtml?req=granuleid:USC-prelim-title10-section3252&num=0&edition=prelim。该法限制了 Hegseth 权限范围,只覆盖美国政府合同相关工作。换句话说,AWS 仍可托管 Anthropic 模型,只要不在其面向美国政府的服务中使用 Anthropic 模型。
无论如何,这都是极端手段,甚至在不少同情“私企不应对美军拥有否决权”的人那里也引发了几乎一致的不安。美国政府为何要“打断”自己 AI 冠军的一条腿?
其实 Amodei 已经给出答案:如果核武器由私营公司开发,而该公司还试图向美军“开条件”,美国绝对有动机摧毁这家公司。原因回到国际法、朝鲜以及上面的逻辑:
- 国际法最终是力量函数;强权即正义。
- 有些能力类别——比如核武器——强大到足以根本改变美国的行动自由;我们能炸伊朗,却不能轻易动朝鲜。
- 如果 AI 达到核武器级别,甚至更高,那么 Amodei 和 Anthropic 正在构建的,可能就是一个可与美军比肩的权力基础。
Anthropic 总在讲“对齐”;但它坚持控制美军这件事,本质上与现实不对齐。当前 AI 模型显然还没强到能与美军匹敌;但如果趋势就是如此——而比谁都更高声宣称这一趋势的,恰恰是 Amodei——那在我看来,美国面前其实只有二选一:
- 选项 1:Anthropic 接受相对于美国政府的从属地位,不再寻求保留对模型用途的最终决策权,而把这项权力交给国会和总统。
- 选项 2:美国政府要么摧毁 Anthropic,要么移除 Amodei。
请注意,我并不是在重复 Anduril 创始人 Palmer Luckey 提出的那个(很有道理的)“民主监督重要性”论证。Luckey 在 X 上写道:https://x.com/palmerluckey/status/2027500334999081294
这比任何关于具体条款的争论都更触及核心:你是否相信民主?我们的军队应由民选领导者监管,还是由企业高管监管?……
这场争论与 AI 有关,并不会改变底层逻辑。像监控系统或自主武器这类伦理敏感但重要的能力,其定义与使用都面临同样问题。你很容易说“他们会为防御用途保留自主系统的例外”,但你立刻会陷入更多问题:什么算自主?什么算防御?在进攻行动中保护资产算什么?把航母战斗群停在把我们视为进攻方的国家海岸外又算什么?
归根到底,你必须相信美国实验仍在继续,相信人民有权选出并罢免做这些决策的当局,相信我们并不完美的宪政共和国依然足以治理国家,而不需要把真正的权力杠杆外包给亿万富翁、公司及其影子顾问。我仍然相信。也正因此,“哥们你就同意 AI 不用于自主武器或大规模监控吧,这很简单求你了”这种立场,美国根本不可能接受。
再次说明,我认为这是一套好论证;但我这里提出的是更基础、更冷酷的版本,和你是否相信“美国实验”并无直接关系(虽然在这点上我与 Luckey 立场一致):美国不可能容忍一个独立于其控制、且明确寻求这种独立性的权力结构发展壮大——而 AI 正是可能支撑这种权力结构的基础。
复杂系统
我先表态:我并不希望 Anthropic 被摧毁,我也希望它成为美国 AI 冠军。同时我也必须说,我不信任 Amodei 在国家安全或 AI 安全上的判断。
在国家安全层面,我此前已在 X 上评论过 Amodei 在达沃斯的说法:https://x.com/benthompson/status/2013709205245513811
去年我在《AI Promise and Chip Precariousness》中解释过,为何我认为从系统视角看中美竞争,芯片与中国问题上必然存在痛苦权衡:https://stratechery.com/2025/ai-promise-and-chip-precariousness/
与本文最相关的关键点是:两种情景中的引爆点都是台湾。转向亚洲意味着为防御台湾、应对中国可能的入侵或封锁做准备;退守美洲则意味着可能承认或默认中国成为亚洲霸权,这几乎必然导致台湾被中国吞并。
不用说,这是我非常谨慎的话题,尤其因为过去二十多年我常住台北。并且,道德维度也很明确:台湾是一个充满活力的民主社会,其民众对与中国统一没有兴趣。也因此,现状一直既荒诞又出乎意料地可持续:台湾在几乎所有意义上都是独立国家,拥有自己的边境、军队、货币、护照,以及——对科技最关键的——经济体系,而且日益由台积电主导;同时台湾并未宣布独立,美国官方立场则是“承认中国认为台湾属于中国”,但不背书这一立场,也不背书台湾独立。
以我的经验,中国人和台湾人对这种模糊性比美国人更能适应;但灰色地带终究有极限。同样重要的还有现实主义因素,如军力(曾偏向台湾,如今明显偏向中国)、经济联系(台湾与中国、中国与美国都极深)、以及发动战争的可信度。乌克兰冲突及其带来的中俄关系变化在这里影响巨大:军事技术共享与陆上油粮补给链不断加强,而美国自身则在消耗。这又引出另一个变化因素:在“美国治下和平”时期,美国制造业被掏空,与中国在“制造业”这一最关键战争能力上的主导地位形成直接对照。
但仍有——或者说曾有——一个可能让中国犹豫的关键因素:台积电的重要性。芯片支撑现代经济的一切;AI 的崛起及其巨大收益前景,只会让这种需求更迫切。并且,只要中国仍需要台积电芯片,它就有强烈动机不去动台湾。
需要考虑的关键是反向场景:切断中国获得先进芯片,并不只是降低中国公司对美国生态的依赖,也会降低“摧毁台积电”这件事的成本。更进一步,如果 AI 真如 Amodei 所说那样强大——核武级,甚至更高——那么从博弈论看,中国反而可能最优地选择那条路:如果中国拿不到 AI,那么至少在当前条件下,让“谁都拿不到”并不难。
正如上面引文所示,Amodei 对中国威胁本身并非无感;让我担忧的是,他持续忽视其主张的芯片管制路线可能带来的推论:把全球 AI 一起推向被摧毁的风险。
再说,Amodei 其实也不真的支持“人人都能用 AI”。他和 Anthropic 一直公开反对开源模型,并且是我认为那份“非常误导”的拜登 AI 行政令的重要推动者之一:https://stratechery.com/2023/attenuating-innovation-ai/。和台湾问题类似,我认为这些立场都暴露出系统性思考的不足:
- 第一,如果世界上只有封闭 AI 系统,那么难以想象的权力将集中在少数系统拥有者手中;看起来 Amodei 认为这权力至少应由他来行使(而我至少更希望由美国政府来行使)。
- 第二,“AI 安全只能由少数负责任管家保障”这一想法,忽视了构建其他模型的巨大激励。几年前还只有少数公司做模型时,这点就已清晰;现实发展已经证明了。
- 第三,在 AI 扩散世界里,防 AI 的最好方式是 AI;这意味着“更多 AI”实际上比“更少 AI”更安全,也意味着开源最终更安全。
这些观点当然可以争论;但我对 Amodei 和 Anthropic 的担忧在于一种持续模式:高度聚焦于“自己成为唯一赢家并掌握全部权力”,却很少考虑其他人会如何对这种局面做出反应。说得更直白一点:他们似乎经常忘了这个现实——别人也存在,而且他们有枪、有导弹、也有核武器。强权仍然决定秩序,而我个人不愿把人类未来交给一个似乎总是忘记这一点的人和公司。
应该把权力托付给谁
我确实认为 Ramez Naam 在 X 上这条帖文,是这个周末争论里最乐观的框架:https://x.com/ramez/status/2028178537711301068
尤其是对 AI 的监控能力,我确实有非常强的不安。我们以为存在的很多“安全护栏”,其实主要来自突破它们所需的摩擦成本。AI 比计算机和互联网更像“摩擦溶剂”,我完全理解 Anthropic 在这个点上的反弹为何会引发广泛共鸣。
但应对这种新现实的办法,应当是制定新法律、加强可问责的监督;去欢呼、甚至要求一个未经选举的企业高管来决定这类强大能力如何与何处被使用,只会通向更专制的未来。
与此同时,我们的对手肯定会发展自主作战能力(是的,我承认我的芯片主张会让这件事更快发生——权衡就是艰难);如果美国想继续成为国际法的最终来源,就必须朝这个方向推进。这里的“美国”指的是民选总统与国会,而不是旧金山某位企业高管。我不想那样,更关键的是,手里有枪的人不会容忍那样。Anthropic 需要与这个现实对齐。
- 是的,海牙确实存在;但它受制于与联合国相同的结构性限制。↩

