保险业开始把AI风险写进条款

AGI
AI应用走向规模化后,保险业开始把AI风险写进条款。2026标准化文本打破沉默兜底,续保从拼价格转向拼治理与证据链。

文 | 我们可能想错了

从2026年1月开始,AI风险到底算不算承保范围将被保险业写进条款。Verisk推动的AGI排除背书以2026年1月开始生效,把一块长期模糊的责任边界变成行业文本。

这对企业意味着什么?过去,企业可以默认没写就算覆盖,至少在谈判桌上还有争议空间;现在,行业正在把争议空间主动收拢。Barron’s报道显示,越来越多商业险承保方开始在责任险、董责等条款中加入更广泛的AI排除,原因不是他们不理解AI,而是他们理解得太清楚:一旦AI的错误以同一底座、同一模型接口、同一供应链形式被大规模复用,保险面对的就不再是一个事故,而可能是同源事故的成片发生。

2025年事实上已经是保单大重写之年;而从2026年开始,企业会逐步发现,自己买到的不是一张覆盖一切的AI风险保单,而是一张更窄、更贵、且附带更多前置条件的可承保风险。本文关心的不是保险公司如何用AI提效,而是反过来,AI如何重写保险的经营范式。风险从可分散变成同源聚合,黑箱把成本先推到辩护费用,责任链条在供应链里漂移。保险会从概率生意走向治理生意,定价权会从精算迁移到审计与红队证据链。

风险开始成片兑现:同源底座把保险的大数定律打穿

传统保险依赖大数定律,风险单位彼此独立。你家着火不影响我家,某家工厂停产也不会让全球同一时刻一起停产。AI的危险在于把独立性改写成同源性,越来越多的企业依赖同一批基础模型、同一套API、同一云与同一工具链。风险开始像同一场事故,在不同公司、不同流程中被复制粘贴。险企担心的不是某一次聊天机器人犯错,而是类错误在商业环境里被大规模复用后,带来成片索赔与不可控的责任敞口,于是排除条款开始成为行业趋势,甚至走向标准化。保险业语言里这叫同源聚合。这个触发源往往不是某个公司操作失误,而是更底层的东西,包括模型逻辑缺陷、训练数据污染、关键接口被注入、代理系统在相似指令下出现系统性越权等。一旦同源问题通过API分发扩散,下游成千上万应用可能在同一时间段出现相似失效。理赔就不再是点状事件,而是面状爆发。

对险企来说,聚合风险最要命的不是单笔赔付,而是资本占用与再保承接能力被同时击穿。FT 也提到,市场担心出现多十亿级别系统性索赔,因此承保倾向会走向收紧甚至排除。

另一层更致命的是责任漂移。模型输出参与决策、代理系统参与执行,过失主体更容易在供应链里移动,从部署方漂到集成商,再漂到平台与模型提供者。巴伦指出什么算AI、什么算AI使用在司法与理赔中仍存在解释空间,这会拉长争议、抬高准备金不确定性,也迫使承保条件更前置。

因此,当风险从独立随机变成同源聚合,保险业只剩两条路:要么排除,要么把治理做进承保流程。

把事故翻译成保单:真正昂贵的是理赔灰

AI风险不是一个新险种,而是把多个传统险种的触发边界搅在一起。这也是为什么企业会同时看到两个看似矛盾的现象:一方面觉得我买了网络险或责任险就够了;另一方面承保人却越来越倾向于用更硬的条款把AI相关风险切出去,或要求加买独立附加险。问题不在AI是否危险,而在它让很多损失同时落在多张保单的边界线上,而保险最怕边界不清。

英国工程咨询公司Arup香港团队在深伪视频会议中被冒充的高管指示转账,损失约2500万美元,涉及多次转账与多个账户。这个事件到底算欺诈险,还是算网络险。欺诈险视角强调员工被诱导转账,网络险视角强调数字身份被盗用、流程被操控、取证与恢复成本高企,以及可能产生的第三方索赔链条。路透社报道指出这种灰区造成的行业后果是当同一事故可以被解释为不同险种、不同触发条件、不同除外责任时,保险公司会更倾向于提高费率、收紧承保条件、甚至在续保时要求企业部署更强的身份验证与深伪检测工具。

瑞士再保险公司的研究表明保险公司近些年面临成本提升过快的难题,诉讼周期更长、律师费与专家费更高。而AI黑盒的广泛引用进一步放大了这一点,抬高了非标争议、算法审计、取证复杂度与专家证人的费用。于是每一次理都可能是一场关的司法辩论保险公司的要先付出多少不可逆的辩护与审计成本。

AI写进条款:沉默结束,标准化模板上

过去几年,许多企业在AI风险上处于一种危险但常见的默认状态,保单里没写AI,于是双方都倾向于把它当作包含在既有责任险/网络险/科技险里,这就是所谓的沉默条款。现在,这个灰区正在被系统性地收拢,要么明确承保、要么明确排除。

条款模板化是最硬的信号。Verisk面向生成式AI暴露推出通用责任险排除表格,并以2026年1月生效为时间锚,覆盖范围指向责任险的核心责任区间。它把AI引发的责任是否落入传统责任险,从谈判桌上的模糊地带推向可复制的行业文本。

这也是为什么2025年会成为商业保险的大重写之年。模板条款一旦确定,承保流程就会系统更新,问卷会追问企业把生成式AI用在何处、谁负责治理、是否做红队、是否有监控与日志;除外责任会变得更硬;子限额与免赔会围绕治理证据链重新定价。标准化的意义不只在于更严,而在于它把责任边界从个别公司各写各的升级为行业模板。进入模板时代,企业很难再用没注意到来逃避治理。要么承认暴露并把它买回来,要么用可验证控制把它变成可承保风险。

承保变成审计:没有证据链,就拿不到好保

当风险不再可预测,保险就只能把控制前置,没有证据链就没有保单。条款标准化把边界写清楚之后,保险业真正的下一步不是简单涨价,而是把承保流程变成准入审核。投保企业能不能投保、能投多少额度、免赔多高,越来越取决于企业能不能证明自己具备一套可验证的AI治理机制。例如,像Armilla AI这类新玩家,它专注于为生成式AI和AI代理提供信任与安全验证及保险服务,通过独立模型评估与监管级审计来承保AI暴露,覆盖算法错误、模型漂移与生成式AI幻觉等风险。

这套门槛会具体化为可检查的控制项:红队测试、持续监控、版本管理、权限隔离、审计日志、回滚机制。它们不再是合规装饰,而是保险公司把黑箱风险切成可定价敞口的证据链。定价权也随之迁移,过去保费主要由行业经验与历史损失率驱动,现在费率与额度更像由你能证明什么驱动。没有证据链,就只能拿到更窄的承保范围、更低的子限额、更高的免赔,甚至被排除在外。

由此出现准入证效应。在B端采购、合作伙伴尽调与跨境业务中,承保确认正在变成隐性的通行证。企业不一定会因为没有保险立刻被监管叫停,但很可能在客户的合规审查、采购条款与董事会风险评估里卡住,尤其当标准化排除条款把默认覆盖打碎之后。

这一趋势在产品形态上也开始被写进清晰的责任语言,Chaucer与Armilla双方推出独立的第三方责任产品,面向AI系统的机械性欠表现,覆盖幻觉与漂移,并包含法律抗辩与责任保护。它的意义不只是一张新保单,而是把承保与治理绑定成闭环:要转移风险,先把风险变成可审计、可监控、可触发。

新供给补缺口:用闭环把AI风险重新变得可

所谓新供给,核心不是卖一张保单,而是交付一个闭环:评估、承保、监控。当传统市场收缩敞口时,谁能补位甚至敢扩限额,取决于谁能把AI风险变成可承保对象。

Armilla的做法很有代表性。它不是在传统网络险或技术过失险上贴一个AI标签,而是把AI责任拆出来,用独立的条款围绕AI失效机制重写触发条件与边界,并用独立评估与审计能力支撑承保与定价。其公告提到,再Lloyd’s支持下,单一组织的独立覆盖最高可提升至2500万美元。与传统保险公司在AI风险上收紧形成对照,这是一个很强的市场信号:当传统市场更谨慎,具备治理闭环的新势力反而敢扩限额。

机会不在保单壳,而在可保性工程:模型评估与审计标准、上线后的漂移与幻觉监控、深伪与身份验证的反欺诈基础设施、AI治理与证据链留痕,以及最关键的去相关化能力。通过多模型、多云、隔离与回滚设计降低同源聚合带来的再保资本压力,一旦形成可复制标准与数据闭环,就会从风控成本变成定价权资产。

因此,定价权正在从精算表迁移到代码、流程与证据链。当精算师开始查阅代码库,当理赔员开始要求红队报告,保险公司就不再只是资本的避风港,而会成为算法世界的守门人。

真正的倒计时,不是2026,而是下一次续保谈

企业把AI引入业务流程,本意是为了降低不确定性,但它创造了一个连精算师都难以计算的不确定性结构。2026年1月的标准化条款意味着边界被强制写清,企业必须把治理前置,把证据链前置。

当承保越来越依赖红队报告、审计日志与持续监控,保险公司内核会更像红队与审计机构,通过定价与承保确认定义什么样的AI才能被市场接受。Lloyd’s生态里审计型承保与独立的产品化落地,说明这不是概念推演,而是正在发生的市场结构变化。

在社会通胀已经推高责任险的成本环境的背景下,任何进一步扩大尾部与辩护成本的变量,都会迫使保险更早、更硬地介入治理。对企业来说,真正的倒计时不是2026年条款生效那一天,而是下一次续保谈判开始的那一刻。

本文系作者 我们可能想错了 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • AI应用大规模推广,对各行各业都带来了新的问题,保险业也不例外,保险定价模型的前提假设也受到了冲击,这就跟二级市场刚出现算法交易的时候一样,保险公司不得不面对的新的形势,相信在未来的一段时间,会有更多的模式出现。您觉得呢?

    作者赞过
    回复 3小时前 · via android
1

扫描下载App