OpenAI锁定8GW算力逼近2025目标,30GW规划背后的成本与行业竞争

2026.04.23 11:46
4月22日,OpenAI宣布已锁定超8GW人工智能算力资源,距2025年10GW目标仅差2GW,2030年计划达30GW。按行业标准,1GW AI数据中心需数百亿美元投资,30GW总投资或达8000亿至1.6万亿美元。其主要通过云租赁获取算力,但高额支出构成运营压力。

全球人工智能行业的算力竞赛正愈演愈烈,算力作为大模型训练与应用的核心基础设施,成了科技巨头角力的核心壁垒。4月22日,OpenAI对外透露已锁定超过8GW的人工智能算力资源,距离2025年初设定的10GW阶段性目标仅差2GW,进展超出市场此前预期。

根据业内普遍标准,建设1GW规模的AI专用数据中心需投入数百亿美元,包括高性能服务器采购、电力基础设施升级、液冷系统部署等核心环节。据此估算,OpenAI2030年30GW的算力远期目标对应的总投资额预计在8000亿至1.6万亿美元之间,这一数字与当前OpenAI的估值相当甚至可能翻倍,既体现出它在算力布局上的战略决心,也暴露出潜在的财务压力。

和谷歌、亚马逊等科技巨头自建数据中心的模式不同,OpenAI的算力主要靠向云服务提供商租赁,这种模式虽能快速灵活地应对算力需求增长,但持续的高额云服务支出已成为其运营中的一大负担。行业分析机构的数据显示,2023年OpenAI的云服务支出占总运营成本近70%,且随着算力需求扩大,这一比例仍有上升趋势。

逼近10GW目标意味着OpenAI将拥有支撑更大型、更复杂AI模型训练的能力,比如传闻中的GPT-5或多模态通用人工智能系统,这会进一步巩固它在全球AI领域的领先位置。同时,充足的算力储备还能更好地满足企业客户对定制化AI服务的需求,推动其商业化进程走向更深层次。

最近全球AI算力需求正爆发式增长,麦肯锡2024年第一季度全球AI产业报告显示,全球AI算力需求同比增长120%,主要来自大模型训练和推理场景的快速扩张。多家科技企业加速算力布局,比如亚马逊AWS宣布2024年将新增5GW AI算力资源,以应对客户日益增长的需求。

在算力竞赛中,OpenAI的主要对手也动作频频:谷歌DeepMind已搭建起基于TPU v5e的超大规模算力集群,总规模约6GW,并计划2025年扩容到12GW;Anthropic于2024年3月宣布与谷歌云达成长期算力合作,锁定3.5GW算力资源,用于Claude 3系列模型的迭代升级;国内方面,百度文心一言的算力集群规模已达4GW,计划2025年提升到8GW,为大模型的持续进化和应用落地提供支撑。

作品声明:内容由AI生成