在全球AI算力需求持续攀升的当下,科技巨头正纷纷加快专有芯片的布局步伐。作为AI模型研发领域的核心玩家,Meta Platforms近期与博通达成关键合作——承诺在2029年前部署总计1吉瓦算力的定制AI芯片,这标志着Meta在数据中心专有硅硬件领域的重大资本投入,旨在摆脱对第三方芯片的依赖,构建自主可控的AI技术堆栈。
此次交易巩固了博通作为Meta主要AI硬件架构伙伴的地位,博通在高速互连与定制芯片领域的技术积累,正是双方合作的核心动因。值得注意的是,博通首席执行官Hock Tan已辞去Meta董事会职务,以避免合作引发的利益冲突,彰显了上市公司的治理规范。
Meta向定制硅过渡面临的核心挑战在于,需在AI训练效率上追赶英伟达的领先架构。当前,英伟达H100、H200 GPU凭借张量核心技术与高带宽内存,在AI训练中占据主导地位。Meta的定制芯片需在性能、能效比及软件兼容性上超越现有方案,才能让这笔投资具备合理性——据行业估算,1吉瓦算力的部署涉及数十亿美元的硬件采购与数据中心改造费用。
从战略层面看,Meta此举反映出巨头对完整AI技术堆栈掌控权的追求。定制芯片能够将硬件设计与自身LLaMA系列模型、元宇宙AI应用需求深度绑定,优化算力利用效率,降低长期运营成本,同时减少供应链波动风险,握有AI竞争的主动权。
行业动态上,英伟达近期发布H200 GPU,其HBM3e内存容量达141GB、带宽4.8TB/s,进一步巩固了在训练领域的优势;AMD推出MI300系列加速卡,针对AI场景进行了优化。谷歌TPU v5e已应用于云服务,亚马逊Graviton4则聚焦云服务器的能效提升。AI芯片领域的竞争正趋于白热化,定制化与垂直整合已成为巨头们的核心战略方向。






快报