2026年4月,埃隆·马斯克创立的人工智能公司xAI与编程初创企业Cursor达成算力合作协议,Cursor将利用xAI的数万块图形处理器(GPU)训练其最新AI编程模型Composer2.5。这一合作的达成,正赶上xAI加速算力扩张的阶段——截至2025年底,xAI已在全球部署超45万块GPU,计划2026年第二季度将总量提升至90万块,硬件投资超过300亿美元。
xAI的算力核心依赖英伟达高端芯片:其位于田纳西州孟菲斯的Colossus超级计算中心已配备23万颗GPU,其中包括3万颗GB200芯片;第二座Colossus数据中心计划容纳55万颗GPU,主力芯片为GB200及更先进的GB300。GB300芯片采用12颗24GB HBM3e堆叠设计,单颗显存容量达288GB,比GB200提升50%,能为大模型训练提供更高的数据处理带宽。
Cursor的Composer系列模型最核心的优势在于长上下文窗口:2026年3月推出的Composer2支持20万Token上下文,在Terminal-Bench2.0测试中得分61.7,比Claude Opus高出4.6分;标准版百万Token的输入和输出价格分别降至0.5美元和2.5美元,降幅达86%。业内推测Composer2.5会进一步提升上下文长度或推理效率,而xAI的大规模GPU集群恰好能满足其训练所需的并行计算能力。
双方合作的动机很清晰:xAI希望通过开放算力实现商业化变现,其AI即服务模式有望挑战亚马逊AWS、微软Azure等云计算巨头;Cursor则能借助xAI的低成本算力加速模型迭代,无需自己搭建数据中心。从技术角度看,训练Composer2.5需要处理PB级的多模态数据,xAI的分层存储架构(用GPU显存存高频数据、NVMe SSD存低频数据)能提供100GB/s的持续写入带宽,刚好满足模型检查点文件的快速存储需求。
这一合作对行业的影响不小:xAI大规模采购GPU的热潮已经让2026年的企业级SSD产量被预定一空,供应紧张可能会持续到2027年;其90万GPU的规模远超OpenAI规划中配备6.4万GB200芯片的“星际之门”数据中心,迫使竞争对手加快算力部署。另外,xAI还引入英伟达作为战略投资者,确保了芯片供应的优先权,进一步拉大了与中小机构的资源差距。
目前行业里,存储厂商正扩大SSD产能以应对需求激增,AI初创公司也开始主动寻求与算力巨头的合作;竞争对手方面,OpenAI已宣布提前“星际之门”数据中心的建设进度,Google则计划增加GB300芯片的采购量,试图缩小和xAI的算力差距。






快报