全球算力需求正随人工智能大模型的训练与部署呈指数级攀升,Meta作为AI研发领域的核心玩家,其LLaMA系列大模型、生成式AI应用等项目需要持续稳定的高性能计算支持。在此背景下,CoreWeave今日宣布与Meta达成一项扩展的长期协议,为行业算力供给格局带来重要影响。
根据协议,CoreWeave将为Meta提供价值约210亿美元的AI云容量,合作将持续至2032年12月,双方在现有合作基础上进一步深化,以强化对Meta AI开发与部署的支撑。专用算力容量将部署于多个地理地点,并包含NVIDIA Vera Rubin平台的初步部署,这种分布式架构旨在优化Meta人工智能运营的性能、韧性与可扩展性。
从技术层面分析,分布式部署模式能显著降低数据传输延迟,提升系统容错能力,确保大规模AI工作负载在多地点高效运行;而NVIDIA Vera Rubin平台作为超大规模AI任务的专属解决方案,其集群化算力配置能够满足Meta复杂模型训练的高并发、高吞吐量需求。这一协议的落地,不仅为Meta解决了当前及未来十年的核心算力供给难题,也体现了CoreWeave在AI基础设施领域的技术优势与规模能力。
这一协议的达成,折射出行业对高性能基础设施的需求正加速增长——这类设施需能支撑日益复杂且规模庞大的AI工作负载。对Meta而言,稳定的算力供给将帮助其在大模型迭代、生成式AI应用落地等领域持续保持竞争力;对CoreWeave而言,与Meta的长期合作将巩固其在AI云服务市场的地位,推动业务规模进一步扩张。
近期AI基础设施领域的合作动态颇为活跃:微软宣布将扩大对OpenAI的算力投入,计划未来三年新增超100亿美元的AI云资源,以支持OpenAI下一代大模型的训练;Google Cloud则与Anthropic深化合作,提供定制化TPU集群服务,助力Anthropic的Claude系列模型迭代。
在竞争对手方面,亚马逊AWS推出了大模型训练专用云实例,采用NVIDIA H100 GPU集群,并具备弹性扩展能力;阿里云则发布新一代AI计算集群“飞天智算平台”,单集群算力可达每秒百亿亿次浮点运算,意在争夺全球AI基础设施市场份额。这些动态表明,AI基础设施已成为科技巨头竞争的核心赛道之一。






快报