![]()
“这可能是目前正在发生的最大现象……OpenClaw 也许是史上最重磅的软件发布,可能没有之一。”
在 2026 年 3 月的摩根士丹利科技大会上,英伟达 CEO 黄仁勋把最密集的溢美之词,给了一个完全不属于英伟达的开源项目。他甚至在现场用手势比划:这个项目的采用率增长曲线,“简直就是一条垂直的 Y 轴”。
一个靠专有软件栈(CUDA)建立起绝对垄断壁垒的硬件巨头,突然为一个第三方的开源软件摇旗呐喊。这绝非黄仁勋在散播技术情怀,而是一场极其冷酷的商业推演:OpenClaw 正在用打破常规的普及速度,为英伟达的下一代高端 GPU 制造一个深不见底的算力需求池。
“五层蛋糕”与交互范式的逆转
为什么一个卖铲子的硬件巨头,要对一款应用层的框架如此上心?黄仁勋在会上用一个“五层蛋糕”的比喻,他将整个 AI 产业切分为五层:能源、芯片与基础设施、云数据中心、AI 模型,以及最顶部的应用层。而 OpenClaw 所在的应用程序层,被他极其直白地定义为“目前产出最高、能给云巨头带来最大回报的领域”。
黄仁勋指出,OpenClaw 的爆火证明了用户行为正在发生根本性逆转:“用户不再只问 AI‘这是什么’,而是开始命令它‘去创建’、‘去构建’或‘去执行’。”
这标志着 AI 行业的一个历史性拐点——从“提供建议”的聊天工具,正式跨越到了能够深入高度个性化环境、直接接管冗余任务的代理式人工智能(Agentic AI)时代。
黄仁勋力挺这个“蛋糕顶层”的核心逻辑非常现实,因为数字劳动力的运转,需要极其恐怖的底层燃料。
传统的聊天模式中,人类提问一次,机器回答一次,Token 消耗是线性的。而当企业利用 OpenClaw 部署代理式 AI 后,模型会在后台自主搜索、跨应用执行、纠错并反复推演。黄仁勋在会上抛出了一个极其刺眼的数据:这种代理式任务的 Token 消耗量,飙升了整整 1000 倍。
他将这种暴增的算力渴求定义为“计算真空(Compute vacuum)”。在黄仁勋的账本里,无论底层硬件的部署规模变得多么庞大,只要代理式 AI 继续渗透进人类的工作负载,这个巨大的“计算真空”就永远填不满。当全球开发者都能轻易地把 AI 接入现实业务流时,实际上是在引爆一场全球范围内的推理算力海啸。
互补品商品化:借开源拆掉软件的高墙
从战略博弈的视角看,英伟达对 OpenClaw 的极度推崇,是一次教科书级别的“将互补品商品化(Commoditize your complement)”操作。
如果代理式 AI 的底层框架被微软、谷歌等极少数软件巨头彻底封闭垄断,英伟达最终面临的风险,就是沦为一个被不断压低利润的底层硬件管道。
OpenClaw 的开源恰好打破了这种可能。黄仁勋在会上的那段对比极其冷酷:“Linux 花了大约 30 年才达到这种普及水平。而 OpenClaw 仅仅用了 3 周就超越了 Linux,成为历史上下载量最大的开源软件。”
这段话的潜台词是:“如何部署 Agent”这个原本的技术高墙,已经被彻底推倒、白菜价化了。英伟达根本不需要自己去控制这个软件框架,它只需要鼓励全行业都用这个开源标准。因为只要软件层的部署门槛越低,跑在上面的应用就越多,最终全行业为高端 GPU 支付的“算力税”就越庞大。
OpenClaw 现象级的爆发,正在快速重塑 AI 行业的利润分配格局。
对于大量依赖“套壳大模型”或只做表层工作流拼接的 AI 软件公司而言,危机已经彻底爆发。当 OpenClaw 这种标准化框架免费提供了强大的底层协调能力后,缺乏核心算法壁垒的中间件企业,生存空间将被极度压缩。
但基础设施提供商迎来了真正的狂欢。为了填补黄仁勋口中的那个“计算真空”,全球的超大云服务商(CSP)和大型企业只能继续斥巨资建设“AI 工厂”,以支撑呈指数级爆炸的推理负载。(本文首发钛媒体App,作者|硅谷Technews,编辑|秦聪慧)







快报
根据《网络安全法》实名制要求,请绑定手机号后发表评论