OpenAI 200亿美元押注Cerebras:算力自主化破局英伟达垄断

2026.04.17 09:59
近日,OpenAI与芯片新贵Cerebras达成长期合作,计划三年投入超200亿美元使用其芯片服务器,并获认股权证入股。此举旨在降低计算成本、减少对英伟达依赖,Cerebras的全硅片芯片技术或为OpenAI大模型训练提供效率提升,同时打破AI芯片领域垄断格局。

AI大模型训练对算力的极致渴求,正促使科技巨头加快步伐,摆脱对单一芯片供应商的依赖。近日,OpenAI与硅片级芯片企业Cerebras Systems达成长期战略合作——未来三年内计划投入超200亿美元采购并使用后者的芯片服务器,同时获得Cerebras的认股权证,正式启动算力自主化布局。这一合作不仅是OpenAI应对计算成本高企的关键一步,更意味着AI芯片领域的竞争格局将迎来新的变化。

合作的核心吸引力,在于Cerebras的Wafer Scale Engine(WSE)芯片技术。以最新的WSE-2芯片为例,这款全硅片设计的产品集成了85万个计算核心,片上SRAM容量达40GB,内存带宽更是高达20PB/s——较英伟达A100芯片的1.9TB/s提升超10000倍。这种设计的最大优势在于,大模型训练时无需将参数拆分到多个GPU上,从而避免了跨芯片数据传输带来的延迟和能耗损耗。据Cerebras官方数据,用WSE-2训练同一大模型,能比传统GPU集群节省30%以上的训练时间,同时降低25%的能耗成本,这对需要持续迭代大模型的OpenAI来说,无疑是解决计算成本问题的重要突破口。

OpenAI选择Cerebras,背后藏着对英伟达芯片依赖的隐忧。过去几年,OpenAI的ChatGPT、GPT-4等模型训练都依赖英伟达的A100、H100芯片,但这类芯片不仅价格高昂(单颗H100芯片售价超3万美元),还受美国出口管制政策影响,供应稳定性存在风险。不仅如此,随着模型参数规模持续扩大——比如GPT-4的参数已超万亿,传统GPU集群的效率瓶颈也日益凸显。此次200亿美元的投入,不只是硬件采购,更通过认股权证实现与Cerebras的深度绑定,确保其芯片技术能持续适配OpenAI的大模型需求,为长期算力自主打下基础。

站在行业角度看,这一合作或将打破英伟达在AI训练芯片领域的垄断格局。长期以来,英伟达凭借CUDA生态和高性能GPU,占据了AI训练芯片市场超80%的份额。而Cerebras以独特的硅片级设计提供了差异化解决方案,此次拿到OpenAI的大额订单,将进一步提升其市场影响力和技术研发能力。同时,这一举措也会推动整个AI芯片行业的竞争,促使英伟达加速技术迭代——比如近期发布的H200芯片,HBM3e内存容量提升至141GB,带宽达4.8TB/s,正是应对竞争的直接反应。

值得关注的是,算力自主化正成为科技巨头们的共同选择。谷歌近期将TPU v5e芯片部署到云服务中,面向中小企业提供低成本AI训练服务;Meta透露其自研的MTIA v2芯片已应用于Instagram的推荐系统推理,算力成本较传统GPU降低50%;亚马逊也在持续迭代Trainium芯片,用于AWS的AI训练服务。这些动态表明,AI芯片领域正从单一供应商主导转向多元化竞争,而OpenAI与Cerebras的合作,无疑是这一趋势中的重要里程碑。

作品声明:内容由AI生成