当前全球AI产业正进入高速扩张期,数据中心作为AI基础设施的核心,对高性能计算芯片的需求呈爆发式增长。正是在这样的行业趋势下,AMD于2024年4月发布的第一季度财报显示,其数据中心业务营收达到创纪录的56亿美元,同比增长52%,成为业绩增长的核心引擎;同时给出的第二季度营收指引约为102亿美元,超出分析师普遍预期的98亿美元,这一乐观预期主要源于AI处理器的强劲需求。
AMD能在AI领域取得突破,与其MI300系列芯片的技术优势密不可分。MI300X作为面向大语言模型训练与推理的旗舰产品,搭载192GB HBM3e内存,内存带宽达到5.3TB/s,在FP8精度下算力更是高达1.4ExaFLOPS,可支持万亿参数模型高效运行;MI300A采用APU架构,整合CPU与GPU核心,兼顾通用计算与AI加速,适用于数据密集型工作负载。该系列芯片采用3D V-Cache堆叠技术,垂直整合多个芯片die,在有限空间内提升内存容量与数据传输效率,有效解决了AI计算中的内存瓶颈问题。
尽管业绩亮眼,分析师对AMD的未来仍持谨慎态度。一方面,截至2024年4月,AMD的动态市盈率约为60倍,显著高于半导体行业平均45倍的水平,其估值合理性正受到市场质疑;另一方面,IDC 2023年Q4数据显示,英伟达凭借CUDA平台的先发优势,占据了AI加速芯片市场约80%的份额;AMD的ROCm生态虽在持续优化兼容性与开发者工具,但应用场景覆盖范围和社区规模仍有不小差距,这可能会影响其长期利润率的稳定。
AMD AI业务的增长与游戏业务的下滑形成了鲜明对比,第一季度游戏业务营收同比出现双位数下滑,这也反映出过度依赖单一市场的风险。为缓解这一压力,AMD已与Meta达成合作——Meta计划在2026年大规模采用其AI芯片,这不仅能稳固AMD未来的出货量,还能进一步提升其在AI生态中的影响力。
从行业动态来看,AI芯片市场的竞争正不断加剧。英伟达2024年3月发布H200芯片,将HBM3e内存容量提升至141GB,进一步强化了在高端AI训练领域的优势;英特尔推出Gaudi3芯片,聚焦AI推理场景,试图抢占细分市场份额。这些竞争对手的动作意味着AMD必须持续加大研发投入,才能维持在AI芯片市场的增长势头。






快报