OpenClaw:GitHub最火AI项目背后,NVIDIA NemoClaw为企业安全铺路

2026.05.01 07:23
2026年初,OpenClaw开源项目迅速崛起,GitHub星标60天内超越React。该自托管持久化AI助手引发关注,也带来安全争议。NVIDIA与社区合作,推出NemoClaw参考实现提升安全性,助力企业部署。文章还探讨了自主AI的推理需求增长及各行业应用场景。

编者按:本文属于Nemotron Labs博客系列,聚焦最新开源模型、数据集与训练技术,助力企业在NVIDIA平台上搭建专业AI系统与应用。每篇文章都围绕开源技术栈在生产场景中的实际应用展开,分享如何通过透明的研究辅助工具、可扩展的AI智能体等方案创造真实价值。

2026年初,开源项目OpenClaw迅速蹿红。1月,它的GitHub星标数突破10万,开发者热情高涨,社区数据显示单周访问量超200万;到了3月,星标数已达25万,仅用60天就超过React,成为GitHub上星标最多的软件项目。

OpenClaw由Peter Steinberger创立,是一款支持自托管、持久运行的AI助手,可部署在本地或私有服务器上。它因易用性和高度自主性受到青睐——用户无需依赖云服务或外部API,就能在本地搭建AI模型。

目前多数AI智能体需要通过提示触发,完成指定任务后就停止运行。但长期运行的自主智能体(也叫“claw”)有所不同:它们在后台持续运转,能自主完成任务,只有在需要人类做决策时才会呈现结果。这类智能体按“心跳”周期工作——定期查看任务列表,评估该采取哪些行动,要么执行,要么等待下一个周期。

OpenClaw的快速流行也引发了争议。安全研究人员担心自托管AI工具在敏感数据管理、认证机制和模型更新方面存在隐患;还有人质疑本地部署可能带来新风险,比如未打补丁的服务器实例、社区分支中的恶意代码等。随着项目贡献者和维护者着手解决这些问题,OpenClaw的崛起也让AI生态系统开始更广泛地探讨开放性、隐私与安全之间的平衡。

为提升OpenClaw的安全性和稳定性,NVIDIA正与Steinberger及OpenClaw开发者社区合作,共同解决潜在漏洞(详情可查看OpenClaw近期博客)。NVIDIA不仅贡献代码,还提供技术指导,重点优化模型隔离机制、本地数据访问管理,以及加强社区代码贡献的验证流程。我们希望通过开放透明的方式,分享自身在安全和系统领域的专业经验,支持项目发展,同时尊重OpenClaw的独立治理模式。

为帮助企业更安全地部署长期运行的智能体,NVIDIA还推出了NemoClaw参考实现。只需一条命令,就能安装OpenClaw、NVIDIA OpenShell安全运行时和Nemotron开源模型,且默认配置已强化了网络、数据访问和安全防护。NemoClaw为企业提供了更安全部署claw的参考方案。

AI的每一次浪潮都让推理需求呈指数级增长。AI发展至今已历经四个阶段,且阶段间隔越来越短:预测AI花了数年才成为主流,生成AI的普及速度更快,推理AI更甚,而OpenClaw代表的自主AI节奏则更快。每一波浪潮都大幅提升了推理需求:生成AI的token使用量比预测AI多,推理AI又比生成AI多100倍,自主智能体(持续运行且跨长时间维度行动)则再比推理AI多1000倍,计算量也随之倍增。token使用量的增长让组织生产力提升了好几个数量级,比如长期运行的智能体可以在夜间帮研究人员解决问题、迭代数千种配置,或监控系统只呈现需要人类判断的异常情况。

虽然生成AI已成为处理按需任务的标配,但在某些场景下,claw的持续“心跳”机制有着明显优势。是否从标准提示型AI转向长期运行智能体,通常取决于工作流的性质:比如从“按需触发”到“始终在线”——标准模型适合人类即时发起的查询,而claw适合无需手动启动的持续后台监控或定期系统检查;处理高迭代循环任务,比如测试数千种化学组合或模拟基础设施压力测试,claw能高效完成大量迭代;从提供建议到直接行动——标准AI只能给出信息或草稿,claw却能执行API交互、更新数据库等操作;优化资源成本——在NVIDIA DGX Spark个人AI超级计算机这类专用硬件上部署本地claw,比频繁调用云API的成本更可控,数据隐私性也更好。

长期运行的自主智能体已在多个行业和职能场景中落地:金融服务领域,智能体持续监控交易系统和监管信息源,在早间审查前标记重大事件;药物发现中,智能体扫描最新科学文献,实时提取相关发现并更新内部数据库,无需研究人员干预(过去这项工作要花数周);工程与制造行业,智能体通过测试数千种参数组合加速问题分析,排序结果并标记值得深入检查的配置(甚至能在夜间完成);IT运营方面,智能体可诊断基础设施故障,应用已知修复方案,只将新问题升级(平均解决时间从小时级压缩到分钟级)。在ServiceNow中,基于Apriel和NVIDIA Nemotron模型的AI专家能自主解决90%的工单。

自主智能体是具备实操能力的——它们能发送消息、写入文件、调用API、更新实时系统。一旦智能体出现错误操作,就会带来实际影响。因此,从项目初期就建立清晰的问责框架至关重要,部署生产级自主智能体的企业必须把治理放在首位。负责任的部署需要关注三个核心方向:开放可审计的框架——NemoClaw基于OpenClaw的MIT许可代码库,企业拥有完整的智能体框架,可读取、分叉和修改各层代码,本地运行NVIDIA Nemotron等开源模型,确保敏感工作负载留在企业内部环境;安全的运行时环境——NemoClaw在OpenShell沙箱中运行智能体,明确界定其权限范围,从一开始就设置清晰的操作边界;本地计算能力——NVIDIA DGX Spark超级计算机提供数据中心级GPU性能,适合持续本地推理,DGX Station系统还能扩展,支持团队同时运行多个智能体。

你可以查看分步教程,了解如何在NVIDIA DGX Spark上用NemoClaw构建更安全的AI智能体;也能探索NemoClaw如何通过一条命令部署更安全、始终在线的AI助手。欢迎在GitHub上体验NemoClaw,或加入Discord社区与开发者交流。

想要了解智能体AI、NVIDIA Nemotron等最新动态,可以订阅NVIDIA AI新闻、加入社区,或关注我们在LinkedIn、Instagram、X和Facebook上的账号。也欢迎探索我们的自定进度视频教程和直播内容。

作品声明:内容由AI生成