软银拟投5000亿美元建全球最大AI数据中心 科技巨头争相入驻

2026.04.28 07:44
软银集团推进美国俄亥俄州巨型AI数据中心项目,总投资或达5000亿美元,用电容量10吉瓦,规模将超现有科技公司AI数据中心总和。谷歌、微软等商谈入驻,英伟达、Meta、OpenAI锁定算力,项目成全球AI基础设施关键节点。

人工智能大模型的快速迭代,对算力资源提出了前所未有的需求。作为算力供给的核心基础设施,数据中心正成为科技巨头竞争的新赛道。在此背景下,软银集团正逐步落地其在美国俄亥俄州建设巨型AI数据中心的构想——这个项目不仅吸引了全球科技巨头的目光,更可能重塑全球AI算力的格局。

这个由软银主导的项目,总投资预计高达5000亿美元,建成后用电容量将达10吉瓦——相当于10个百万千瓦级核电站的发电量,足以支撑大规模GPU集群的稳定运行。据行业数据显示,目前谷歌、亚马逊、微软等科技巨头的AI数据中心总规模之和,仍低于该项目的规划容量;建成后,它将成为全球最大的AI数据中心之一。眼下,谷歌、微软已在商谈入驻事宜,英伟达、Meta、OpenAI也提前锁定了部分算力容量,各方都希望通过提前布局,获取稳定且大规模的算力支持。

软银推进这一项目的核心原因,在于当前AI大模型训练需要海量并行计算,而现有数据中心难以满足这样的需求。以GPT-4的训练为例,它消耗了约10^23次浮点运算,传统分散式数据中心根本无法高效支撑如此超大规模的任务。这个数据中心采用集中化的超大规模设计,能实现算力的高效调度与共享,既降低企业的运营成本,也为下一代AI技术的研发提供坚实支撑。从技术层面看,10吉瓦的容量可支持数十万颗高性能GPU(如英伟达H100)持续运行——每颗H100的峰值功率约700瓦,再结合冷却等配套能耗,其算力输出可达到每秒数万亿次浮点运算,足以支撑多个超大型AI模型同时进行训练。

对软银来说,这个项目是其从投资业务向AI基础设施运营转型的关键一步——整合巨头需求后,它有望成为AI领域的核心基础设施提供商;对入驻企业而言,稳定的算力供给能降低研发成本,加速模型迭代速度;对全球AI产业来说,它将缓解长期存在的算力瓶颈,推动AI技术在医疗、自动驾驶等领域的深度应用。

行业近期动态显示,亚马逊AWS刚宣布将在弗吉尼亚州投资200亿美元扩建AI专用数据中心,预计2025年投用,以支撑其Bedrock平台;阿里云张北超级数据中心则新增了10兆瓦的AI算力,用于支撑通义千问的训练。在竞争对手方面,微软位于华盛顿州的AI数据中心项目正处于建设中,投资150亿美元、设计容量1吉瓦,预计2026年投产;谷歌在得克萨斯州的新数据中心专注于AI算力供给,容量500兆瓦,预计2024年底投入运营,以提升Gemini模型的训练效率。

作品声明:内容由AI生成