2026年3月,欧盟议会通过修正案,把禁止生成未经同意露骨图像的AI系统正式纳入《人工智能法案》框架。这一禁令针对的是那些用AI创建或篡改可识别真实个人的性露骨或私密图像的“nudifier”应用,执行日期定在2026年12月2日,由欧盟人工智能办公室负责监管。法案条款规定,违规企业最高将面临3500万欧元罚款,或其全球年营业额的7%——这是一级处罚;而二级合规违规,比如违反透明度义务,可能招致1500万欧元罚款或营业额3%的处罚。
合规要求的复杂性,是当前行业最关注的问题之一。欧盟立法者还没对“性化内容”形成统一的法律定义,这让AI开发者在落地时容易遇到模糊不清的情况。比如,“未经同意”的边界该怎么界定,技术上又该如何建立有效的防范机制,都需要更细化的指导文件。另外,法案还要求AI生成的音频、图像、视频或文本内容必须添加机器可读的水印,开发者得在2026年11月2日前完成相关技术部署。
从经济成本来看,AI系统的合规投入明显上升。市场数据显示,企业级AI系统的合规部署成本能达到100万到300万元人民币,甚至更高——其中架构设计与编排占总成本的25%到30%,测试和安全护栏占15%。隐性成本还包括每月3000到20000元的Token消耗费,以及云渲染和算力支出。对中小企业来说,这些成本可能是不小的负担,所以欧盟在修正案里加入了针对中小企业的灵活条款,比如延长合规过渡期。
政策层面上,欧盟想在收紧有害AI监管和提升科技竞争力之间找到平衡点。一方面,禁令是为了保护个人隐私,防止深度伪造技术被滥用;另一方面,欧盟议会延迟了部分高风险AI系统的合规日期——比如有些系统延到2027年12月2日,给企业留出更多适应时间。这被看作是对欧洲科技公司的支持,避免过度监管打击创新。
行业最新动态里,欧洲科技巨头已经开始调整产品策略。比如,有些公司已经暂停开发涉及图像生成的高风险功能,转而把资源投入到优化现有合规框架上。从竞争对手的情况看,美国和英国还没出台类似的全面禁令,这可能让部分AI开发者把业务转移到监管更松的地区。不过,欧盟的这项立法可能会推动全球AI伦理监管走向一致,预计其他国家会在未来12个月内跟进相关政策。






快报