GPT-4o、Claude 3等模型的相继推出,推动生成式AI技术快速迭代,也让行业对计算资源的需求呈指数级攀升。IDC 2024年第一季度报告显示,全球AI基础设施支出同比增长45%,达到187亿美元,其中GPU相关投资占比超60%。作为全球AI GPU市场的主导者——Gartner 2023年数据显示其份额约占80%——英伟达近日宣布向数据中心运营商IREN投资21亿美元,进一步深化了自身在AI基础设施领域的布局。
IREN原本是一家比特币挖矿企业,2023年起转向专注于适配英伟达先进芯片的高性能数据中心建设,目前已在北美、欧洲布局多个节点。此次投资将用于IREN高密度数据中心的扩建,这些设施专门针对英伟达Blackwell架构GPU设计——Blackwell B200芯片内含800亿晶体管,搭载192GB HBM3e内存,带宽达3.2TB/s(较上一代Hopper架构提升2倍),FP8精度算力更是达到1.3e18 FLOPS,足以支持千亿参数级生成式AI模型的训练与推理工作。
英伟达此次投资的核心目标,是缓解全球范围内的AI算力瓶颈。生成式AI模型训练往往需要上万颗GPU组成的集群支持,而IREN的高密度数据中心采用液冷技术,单机柜功率密度达30kW(较传统数据中心提升5倍),PUE仅为1.08(远低于行业平均的1.5),既能降低运营成本,又能显著提升算力密度。IREN计划用这笔投资采购超过10万台Blackwell GPU,按单台15万美元计算,预计将为英伟达带来约150亿美元的营收。
不过,摩根士丹利分析师Joseph Moore也指出,英伟达投资自身客户可能形成“估值循环”:用高估值融资来的资金投资IREN,IREN再购买英伟达GPU推动其营收增长,股价上涨后又能通过再融资投入更多客户。一旦AI需求不及预期,这个循环可能破裂,进而引发营收下滑和股价回调。此外,欧盟委员会已于2024年3月对英伟达GPU的市场主导地位展开调查,重点关注其是否通过排他性协议限制行业竞争。
技术层面,IREN的数据中心针对Blackwell架构做了深度优化:采用NVLink 4.0技术,单节点带宽达900GB/s,集群延迟降至微秒级,可支持大规模分布式训练;液冷系统则能将GPU温度维持在35℃以下,有效提升设备稳定性与使用寿命。这种布局不仅巩固了英伟达在算力领域的优势,也为生成式AI产业提供了关键的基础设施支撑。
行业动态方面,IDC预测2024年全球AI基础设施支出将突破700亿美元,其中生成式AI相关投资占比超75%。竞争对手也动作频频:AMD在2024年4月与Meta合作建设AI数据中心,采用MI300X GPU(配备128GB HBM3e内存,FP8算力达1.2e18 FLOPS);谷歌云则在5月推出TPU v5e AI服务,推理成本比GPU低30%,吸引了不少中小企业客户。在AI基础设施竞争日益加剧的背景下,英伟达的投资策略既是巩固自身优势的手段,也是应对行业竞争的必要举措。






快报