五位AI供应链关键人物揭示行业瓶颈:芯片短缺、架构争议与未来方向

2026.05.07 13:56
在比弗利山庄Milken全球会议上,ASML、Google Cloud等五家核心企业负责人围绕芯片短缺、基础设施压力及AI基础架构合理性展开讨论,剖析AI经济痛点与发展路径。

本周早些时候,在比弗利山庄举办的Milken全球会议上,五位横跨AI供应链各环节的关键人物与TechCrunch编辑展开对话,话题围绕芯片短缺、轨道数据中心的可行性以及AI底层架构缺陷等核心议题展开。参与嘉宾包括主导全球极端紫外光刻(EUV)设备市场的荷兰ASML CEO Christophe Fouquet、Google Cloud COO Francis deSouza、估值150亿美元的物理AI公司Applied Intuition CEO Qasar Younis、AI原生搜索企业Perplexity CBO Dimitry Shevelenko,以及挑战传统架构的Logical Intelligence创始人Eve Bodnia——Meta前首席AI科学家Yan LeCun今年加入其技术委员会任创始主席。

ASML的Fouquet提到,EUV设备的产能瓶颈是先进芯片供应紧张的核心所在:每台EUV机器售价1.5亿美元,生产周期长达18个月,2023年全球仅交付60台,台积电、三星等主要客户的订单已排至2026年,这直接制约了AI芯片的产能。Google Cloud的deSouza则表示,公司2023年300亿美元资本支出中,有60%投向了AI基础设施;液冷数据中心的算力密度比传统数据中心提升30%,此外他们还在探索轨道数据中心,以应对能耗和空间的双重限制。

Applied Intuition的Younis介绍,他们的模拟技术能将自动驾驶物理测试次数减少70%,研发周期缩短40%,目前已与美国国防部合作开展无人系统训练;Perplexity的Shevelenko透露,旗下AI代理功能的用户留存率比传统搜索高出40%,2024年第一季度月活跃用户已突破1000万。Logical Intelligence的Bodnia则指出,Transformer架构依赖大量数据和算力的模式难以持续,他们开发的逻辑推理模型在数学任务上的准确率比GPT-4高15%,且训练数据量减少了50%。

这些讨论也暴露了AI经济面临的多重挑战:芯片短缺制约着算力增长,基础设施投入巨大却仍难满足需求,底层架构的争议则可能改变行业发展方向。要解决这些问题,需要供应链各环节协同发力,从芯片制造到技术研发,每个环节都不可或缺。

行业近期动态中,NVIDIA于2024年5月宣布H200芯片量产,其内存带宽比H100提升30%;AMD的MI300X在云服务商中的部署量增长25%,IDC数据显示,该芯片在AI训练芯片市场的份额已达18%。在竞争层面,OpenAI 5月发布GPT-4o,多模态响应速度提升50%;Meta 4月推出拥有4000亿参数的Llama 3模型,持续主导开源市场。AI行业正处于快速迭代阶段,技术竞争也日趋激烈。

作品声明:内容由AI生成