当前全球AI大模型产业正爆发式增长,算力需求呈指数级上升。英伟达GPU凭借CUDA生态主导市场,2023年占据全球AI芯片市场约85%的份额,但高成本与供应紧张的问题日益突出。Google作为AI领域的技术先行者,虽已推出TPU系列专用芯片,却面对GPT-4、Gemini等千亿参数模型的算力需求,仍需更高效的硬件支撑。在此背景下,Google与Marvell的合作谈判成为行业关注的焦点。
据The Information报道,Google与Marvell正在开发两款新AI芯片,具体细节尚未公开,但知情人士透露,产品将分别针对大模型训练与推理场景优化。目前谈判处于早期阶段,尚未确定发布时间,预计最快2025年推向市场。双方将整合Google山景城AI研发团队与Marvell圣克拉拉芯片设计中心的资源,发挥各自核心技术优势。
推动双方合作的核心原因,在于Google希望降低AI运算成本,减少对英伟达GPU的依赖——目前Google云服务中约60%的AI算力仍依赖英伟达硬件,单台H100服务器成本更是超过20万美元。而Marvell则试图借助Google的AI技术积累,从传统数据中心芯片供应商向AI专用芯片领域拓展。其2023财年数据中心业务收入约20亿美元,占总营收的30%,若合作成功,有望推动该业务增长20%以上。
技术上,双方将结合Google的AI算法优化能力与Marvell的先进芯片设计技术:Google会提供TensorFlow框架下的模型压缩、量化技术,以及大模型推理加速算法;Marvell则带来Chiplet架构、PCIe 5.0高速接口和低功耗FinFET工艺,预计芯片采用7nm或更先进制程,算力密度比现有TPU提升30%,能效比提高25%。此外,Marvell的光互联技术还能支持芯片间高速数据传输,降低延迟,适配超大规模集群部署需求。
这一合作对行业的影响不容忽视:Google将通过自研芯片增强云服务AI产品的竞争力,吸引更多企业客户;而Marvell的加入会加剧AI芯片市场竞争,打破英伟达的垄断地位,推动行业向多元化发展。近期动态显示,英伟达刚宣布H100 GPU产能提升20%以应对市场需求;竞争对手中,微软与AMD合作的AI芯片已进入内部测试阶段,亚马逊Trainium芯片已应用于云服务大模型训练,Meta自研的MTIA芯片也在内部部署,AI芯片市场的“多极化”格局正逐渐形成。






快报