这个财报季,全球科技板块的分化态势堪称历史性:AI硬件企业借算力需求爆发实现亮眼业绩,软件供应商却陷入增长瓶颈。英伟达最新财报显示,其数据中心业务收入同比猛增75%至22.4亿美元,直观反映出半导体领域对AI算力芯片的强劲需求;相比之下,纳斯达克SaaS指数本季度下跌5%,远不及费城半导体指数12%的涨幅,透露出市场对软件板块的谨慎情绪。
英伟达的H100 GPU是这场硬件热潮的核心,它的技术参数恰好满足了AI大模型训练与推理的核心需求:这款芯片采用台积电4纳米工艺,集成800亿个晶体管,FP8精度算力达67TFlops,FP32精度为9.7TFlops;同时支持NVLink 4.0技术,单芯片间带宽高达3.6TB/s,能让多芯片集群高效协同工作。行业测算显示,OpenAI训练GPT-4模型用了约1万颗H100芯片,总硬件成本超1亿美元,这一数字直接凸显了AI产业对高端算力硬件的依赖。
这种分化的逻辑不难理解:AI技术落地首先得有物理算力做支撑,硬件企业因此成了产业生态里的核心基础设施提供者;软件企业却要面对商业模式的冲击——AI自动化技术普及后,企业客户开始担心岗位被替代,对传统软件许可和订阅模式的信心也在减弱。比如贝莱德这类大型资产管理者,本季度对SaaS企业的持仓比例平均下降10%,原因就是AI可能减少企业对客服、销售等岗位相关软件的需求。
从价值层面看,硬件企业的竞争壁垒在于芯片设计与制造能力,英伟达目前占据全球AI芯片市场80%以上的份额,技术优势短期内很难被撼动;软件企业则得加快转型步伐,比如Salesforce推出的Einstein GPT尝试把AI融入CRM服务,但到2024年第一季度,该功能的用户采用率仅15%,还没能有效打消市场对其增长前景的疑虑。
行业近期动态表明,AI硬件领域的竞争正在升温:2024年4月,英特尔推出Gaudi3 AI芯片,FP8算力达65TFlops,接近H100的水平,价格却比H100低30%,已经拿到谷歌云的试点订单;另一边,AMD的MI300X芯片凭借58TFlops的FP8算力和更出色的能效比,成功进入微软Azure和Meta的AI基础设施供应链,直接对英伟达的市场主导地位形成挑战。






快报