文 | 字母AI
就在昨天,Anthropic成立了一家新机构。
多家媒体消息披露,Anthropic已向美国联邦选举委员会提交组织文件,设立名为AnthroPAC的企业政治行动委员会。
文件显示,签字人是公司财务主管Allison Rossi;这个机构准备在2026年中期选举中支持两党候选人,资金来自员工自愿捐款,每人每年上限5000美元。
企业PAC不是研究机构,也不是游说公司,Anthropic做这件事的目的很简单:给候选人捐款,支持竞选广告和选举动员,直接作用于谁能赢下席位。
首先解释下什么是PAC(Political Action Committee政治行动委员会)。
美国法律不允许企业直接给候选人打公司账户里的钱,所以科技公司常见做法是:由员工出资,企业来组织,最终形成企业PAC。它和普通政策倡议组织、智库或者行业协会最大的区别,就是可以直接给候选人送钱。
Anthropic这一步也不是凭空冒出来的。早在今年2月,公司已经宣布向Public First Action(公共优先行动组织)捐出2000万美元。Anthropic方面当时表示:这笔钱要用来支持AI透明度、安全护栏、更强的联邦治理框架、芯片出口管制,以及对生物风险和网络攻击等高风险场景的更严格管理。
这个Public First Action和AnthroPAC并不是一回事。前者属于美国法律中的501(c)(4)组织,可以进行政策倡议、公众教育以及选举动员,通过广告和宣传影响候选人;后者则是企业PAC,可以直接向候选人提供竞选资金,进入选举资金分配环节。
把这两步连起来看,Anthropic的目的不言而喻,这家公司正在想尽办法介入政策的决策层。
为什么AI公司要搞PAC
事实上,不止Anthropic开始下场,美国围绕人工智能的选举资金规模在2026年呈现明显放大的态势。
在美国选举体系中,企业PAC只是众多资金工具中的一种。根据公开数据,美国联邦选举委员会登记的各类PAC数量长期维持在数千个规模,而大型科技公司几乎都设有自己的企业PAC,用于持续支持与产业相关的候选人。
相比一次性捐款,这类机构的优势在于可以跨多个选举周期运作,并根据国会委员会、法案进展等动态调整支持对象。
而在人工智能成为新一轮核心议题后,相关资金开始快速集中到几个关键方向:一是算力基础设施,包括数据中心、电力和芯片供应;二是监管框架,包括模型责任、数据使用和安全边界;三是政府采购,即AI技术是否能进入国防、公共服务等高预算场景。
据外媒披露,超级PAC“Leading the Future”(引领未来)最初筹集约5000万美元,随后进一步扩大至1.25亿美元;与此同时,“Innovation Council Action”(创新委员会行动)也在准备超过1亿美元的中期选举相关投入。
![]()
其中,“Leading the Future”更像是科技资本主导的资金平台,把钱直接投向支持AI发展和算力基础设施的候选人;“Innovation Council Action”则把重点放在数据中心建设和联邦监管框架上。
在过去一段时间,Anthropic一直以AI行业的中的“安全派”“中立派”形象示人,如今也推进到了介入选举资金的层面。
而在这背后,是Anthropic近期经历的一系列现实冲突。上月,美国国防部把Anthropic列为“供应链风险”,并限制其参与部分军事合同。此举直接卡住了这家AI公司进入政府采购体系的一部分资格。
这场冲突的背景很简单,Anthropic与五角大楼此前就模型使用条款谈崩了。Anthropic方面宣称坚持两条红线:不接受大规模监控美国人,也不接受把Claude直接用于完全自主武器系统。五角大楼的立场则相反,国防部长Pete Hegseth公开主张军方应能把AI用于“任何合法用途”。
冲突升级后,Anthropic在3月9日提起诉讼。它在加州和华盛顿分别起诉美国政府,指控这一“供应链风险”认定前所未有且违法,带有针对其AI安全立场的报复意味。
前脚和政府撕破脸,后脚Anthropic成立PAC想要“公关”自然也有了合理性,尤其是Anthropic正处于争夺市场和模型能力进化的关键周期。
几天前, Anthropic因内容管理系统配置失误,意外泄露了尚未发布的新模型材料。泄露文件显示,公司正在测试名为Claude Mythos、内部又称Capybara的新模型,并承认它是公司迄今最强的系统。
按照泄露材料和Anthropic后续回应,这个新模型在推理、编码和网络安全上都明显强于此前的Claude Opus 4.6,而且已经进入早期客户测试。
更关键的是,泄露文档里写得很清楚:Capybara在网络安全能力上“远超”现有系统,可能被黑客用来进行大规模自动化漏洞利用和攻击,因此公司计划先把早期访问开放给网络安全防御机构,而不是全面铺开。
这意味着,如果上述信息属实,Anthropic对于模型安全侧的顾虑是真实存在的,一旦应用在某些领域,新一代模型能力保不齐就成为“潘多拉魔盒”。
而另一边与五角大楼的现实冲突,让Anthropic不得不正视如何介入决策层。
AI企业的“钞能力”,不止用于模型
目前,Anthropic的公司业务正在经历一个超级加速期。
最新一轮融资达到300亿美元,估值升到3800亿美元。Anthropic明显在把重心放在企业AI市场,尤其是编码产品Claude Code,以及围绕Cowork代理工具延展出来的企业插件体系。
从商业逻辑上看,这一点非常关键。Claude Code和类似Agent产品卖得越好,Anthropic就越依赖大客户、开发者生态和复杂行业场景;而这些场景的落地情况,往往和政策决策层有着紧密联系。
根据外媒披露,Anthropic最近在强化与政府和安全机构的关系,不只是美国。就在两天前,Anthropic方面刚刚与澳大利亚政府签署AI安全与研究谅解备忘录,承诺共享经济指数数据、模型能力与风险研究结果,并参与联合安全评估。
显然,这家AI超级独角兽,想要在政府关系里更多占据主动位置。
把这些线索合起来,Anthropic这次成立PAC的动机其实已经很具体了。首先是,五角大楼的冲突让它看到,行政和采购体系可以直接对公司业务造成巨大冲击;另一方面,新模型能力跃升又让模型能力边界陷入争议。
事实上,这类“供应链风险”认定在美国政府采购体系中影响范围极大。相关规则允许政府在未公开全部证据的情况下,将企业排除出敏感项目竞标名单,一旦进入该名单,企业不仅会失去当前合同,还可能在未来数年内难以进入相关投标池。
而且,美国国防和公共部门AI合同通常金额巨大。公开数据显示,类似Palantir等公司在政府合同中的收入占比一度超过50%,单一项目金额可达数亿美元级别。因此,AI公司一旦在这一体系中被限制,影响的不是单个订单,而是整块高价值市场。
所以,Anthropic想要的很简单:在下一轮AI规则制定之前,先把自己的人脉和资金通道放到位。AI公司今天面临的很多关键约束,最后都不是由模型自己决定,而是由握有预算、采购的人决定。
而在具体选举层面,AI资金已经开始产生直接影响。据外媒统计,AI相关资金在2026年中期选举中已累计投入超过1.85亿美元。在德州和北卡罗来纳州的20场获得相关资金支持的选举中,仅有1名候选人落败,其余均成功晋级或当选。
随着AI企业的PAC纷纷发力,这场模型之外的资源博弈,已经提前开打。







快报
根据《网络安全法》实名制要求,请绑定手机号后发表评论