黄仁勋公布英伟达新一代Rubin GPU和Vera CPU,预计2026年推出|钛媒体AGI

“今天,我们正处于计算领域重大转变的风口浪尖。AI 和加速计算的交汇将重新定义未来。”英伟达CEO黄仁勋表示。

英伟达CEO黄仁勋(Jensen Huang)

英伟达CEO黄仁勋(Jensen Huang)

就在刚刚,身价961亿美元(约合6959.56亿元)的老黄,在台北超过5000人的体育场内,全面展示 AI “核弹”带来的新产业革命。

6月2日晚,“AI教父”、英伟达创始人、CEO黄仁勋(Jensen Huang)宣布,英伟达打算每年都升级AI加速器/AI芯片,去年发布的Blackwell芯片现在开始投产,2025年将推出Blackwell Ultra,而下一代 AI 芯片架构平台名为Rubin,采用HBM4芯片,预计将于2026年推出。

同时,黄仁勋还宣布推出推理模型微服务NVIDIA NIM,以部署在云、数据中心或工作站上,并且开发者能够轻松地为Copilot、ChatGPT等构建生成式 AI 应用,所需时间从数周缩短至几分钟。另外,英伟达面向GeForce RTX AI电脑平台推出AI助理,为数字人推出G-Assist和NVIDIA ACE(数字人技术) NIMs,以及为微软Windows Copilot Runtime推出用于RTX加速API的小语言模型(SLM)等等。

黄仁勋全程演讲接近2个小时,广达董事长林百里、和硕董事长童子贤等台系供应链厂商高管均悉数到场,现场5000多人座无虚席,而黄仁勋携带无数款英伟达新产品,希望让产业链和更多人看到新的 AI 时代下,英伟达处于GPU和 AI 技术的“交汇点”。

“今天,我们正处于计算领域重大转变的风口浪尖。AI 和加速计算的交汇将重新定义未来。”黄仁勋强调,未来,全球AI产业规模将高达100万亿美金,比之前IT时代的3万亿美元高出约33倍,具有强大的市场前景。

黄仁勋引领的新一轮以 AI 为核心的产业革命已经开始。

从CUDA软件到GPU硬件,英伟达正“加速一切”

此次COMPUTEX上黄仁勋的演讲内容,钛媒体AGI梳理成四大主题层面:软件,芯片架构和硬件,Omniverse和NVIDIA ACE,以及机器人技术。

首先是软件。

开始,黄仁勋表示,计算机行业迎来了非常激动人心的时刻,整个产业将被变革。而加速计算、和在全宇宙中运行的 AI 这两种技术力量将重塑计算机行业。其中,CPU处理性能扩展已大大放缓,“摩尔定律”已经跟不上 AI 数据和计算能力的发展,而基于GPU的加速计算和CUDA系统将“加速”计算机的应用研发速度。

“我们正在看到世界各地使用的数据中心电力数量正在大幅增长,计算成本正在增长,而且看到了计算通货膨胀。当然,这不能再继续下去了。同时,数据将继续呈指数级增长,CPU性能扩展将永远不会恢复到之前状态。”黄仁勋称,“我预测,在不久的将来,每个处理密集型的应用程序都将加速,每个数据中心肯定都会加速。”

随后,黄仁勋表示,“GPU处理器可以降低能耗和运算时间,并且运算速度之快令人难以置信。例如,如果GPU可加快100倍的运算速度,但你只增加了大约三倍的功率、只增加大约50%的成本。一旦GPU放到1000美元的PC设备上,性能显著提高,形成了小型的算力中心;如果5亿美元GPUs放到数据中心当中,它突然间会变成了一个AI算力工厂。节省的开支是相当惊人的,每1美元可以获得60倍的性能、100倍的速度提升,令人难以置信。而节省的费用是用美元来衡量的。”

黄仁勋强调,过去8年内,英伟达 AI 计算架构加速了1000倍。

“加速计算是可持续计算,”他称,GPU和CPU的组合能够实现高达100倍的加速,同时仅将功耗增加三倍,与单独使用 CPU 相比,每瓦性能提高了 25 倍。

英伟达还展示了基于加速计算技术的模型如何更快、更省钱的预测天气。基于NVIDIA H100 Tensor Core GPU研发的天气类生成式 AI 模型CorrDiff,可以将 25 公里模型解析为 2 公里,速度提高了 1,000 倍,单次推理所消耗的能量比传统方法减少了 3,000 倍,同时成本削减 50 倍,能源消耗削减 25 倍,以实现更快、更准的预测天气和气候变化,提高能源效率并降低总体拥有成本(TCO)。

黄仁勋指出:“买得(GPU)越多,省得(功耗和成本/TCO)越多”,强调了这种方法可以显著节省成本和能源。

随后,黄仁勋反复强调CUDA软件系统生态对于 AI 时代的重要性。目前,英伟达全球拥有500万开发者在CUDA生态上进行开发,服务包括医疗保健、金融服务、计算机、汽车等各行各业,几乎每一个科学领域因为有CUDA生态架构才可以获得用户。

因此,黄仁勋重磅推出首个基于GPU云的生成式 AI 推理部署服务:NVIDIA NIM,通过优化容器形式提供模型,部署在云、数据中心或工作站上。借助 NVIDIA NIM,开发者能够轻松地为Copilots、聊天机器人等构建生成式 AI 应用,所需时间从数周缩短至几分钟,目前包括40余个NIM微服务为跨模式的生成式 AI 赋能。

具体来说,NVIDIA NIM 提供了一种简单、标准化的方式,将多个模型来生成文本、图像、视频、语音等生成式 AI 添加到应用中,显著提高了开发者的工作效率。包括 Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和思科等近 200 家技术合作伙伴正在将 NIM 集成到他们的平台中,以加快特定领域应用的生成式 AI 部署。

黄仁勋表示,“每个企业都希望在其运营中融入生成式 AI,但并非每个企业都拥有专门的 AI 研究团队。NVIDIA NIM 可被集成到任意平台中,任何地方的开发者都可以访问,并且可以在任意环境中运行——它正在助力科技行业将生成式 AI 普及到每一个企业组织。”

另外,英伟达今日还宣布,集成NVIDIA Holoscan的 NVIDIA AI Enterprise-IGX 软件现已在 NVIDIA IGX 平台上正式可用,以满足工业边缘对实时 AI 计算日益增长的需求。它们将共同帮助医疗、工业和科学计算领域的解决方案提供商利用企业级软件和支持来加快开发和部署边缘 AI 解决方案。

其次,黄仁勋首次透露下一代技术架构:Vera、Rubin。

黄仁勋透露,英伟达新的GPU架构将从两年一次迭代,加速到以一年为周期推出。而Rubin 平台首次亮相,将取代即将推出的 Blackwell 平台,该平台具有新的GPU,并且配备新的基于ARM架构的Vera CPU,以及带有 NVLink 6、CX9 SuperNIC 和 X1600 融合 InfiniBand/以太网交换机的高级网络。

“我们公司有一年的节奏。我们的基本理念很简单:建立整个数据中心规模,然后以一年的节奏拆解并出售给你们,并将一切推向技术极限,”黄仁勋解释称。

英伟达新的Vera、Rubin AI加速器架构的名称来源于美国一位女天文学家Vera Rubin——研究暗物质先驱。

另外,在网络方面,黄仁勋公布每年发布Spectrum-X 产品的计划,以满足 AI 对高性能以太网网络日益增长的需求。此次公布的全新NVIDIA Spectrum-X,是首款专为 AI 打造的以太网架构,与传统以太网架构相比,其网络性能提高了 1.6 倍。它可加速 AI 工作负载的处理、分析和执行,进而加速 AI 解决方案的开发和部署。

据悉,CoreWeave、GMO Internet Group、Lambda、Scaleway、STPX Global 和 Yotta 是首批采用 Spectrum-X 的 AI 云服务提供商,旨在为其 AI 基础设施带来极致的网络性能。

基于GPU的强大加速计算能力,黄仁勋还宣布永擎电子、华硕、技嘉、鸿佰科技、英业达、和硕、QCT、Supermicro、纬创资通和纬颖将使用 NVIDIA GPU 和网络打造云、专用系统、嵌入式和边缘 AI 系统,从单 GPU 到多 GPU、从 x86 到 Grace、从风冷到液冷等全面进行整合英伟达“全家桶”,丰富的产品组合覆盖云、专用系统、嵌入式和边缘 AI 系统等。

“新一轮工业革命已经开始。众多企业和地区正在与NVIDIA 合作推动价值万亿美元的传统数据中心向加速计算转型,并建造一种新型数据中心——AI工厂来生产新的商品‘人工智能’。从服务器、网络和基础设施制造商到软件开发商,整个行业正在准备使用 Blackwell 来加速各个领域实现 AI 驱动的创新。”黄仁勋称。

再次,黄仁勋重点谈及NVIDIA ACE数字人 AI 技术,以及Omniverse数字孪生技术。

英伟达发布的数字人 AI 微服务NVIDIA ACE(Avatar Cloud Engine),可以让游戏NPC具有AI对话功能,同时能直接生成数字人的语音和面部动画,从而以加速下一波数字人类的诞生,提升游戏和虚拟角色互动体验的技术,以及即将在该平台上实现的全新生成式 AI 突破。

目前,客户服务、游戏和医疗保健领域的公司率先采用 ACE 技术,简化客户服务、远程医疗、游戏和娱乐领域逼真的数字人类的创建、动画和操作。而NVIDIA ACE技术套件包括NVIDIA Riva ASR、TTS和NMT、NVIDIA Nemotron  LLM、NVIDIA Audio2Face、NVIDIA Nemotron-3 4.5B — 一种新型小型语言模型 (SLM),专为低延迟、设备上 RTX AI PC 推理而构建等。

同时,英伟达已将 ACE 作为NIM 微服务提供给开发人员在数据中心运行。现在,NVIDIA 正在构建ACE PC NIM 微服务,以部署在 1 亿台 RTX AI PC 和笔记本电脑上。

另外,关于英伟达Omniverse,黄仁勋称,NVIDIA Metropolis视觉 AI、 NVIDIA Omniverse基于物理的渲染和模拟以及NVIDIA IsaacAI 机器人开发和部署,助力台达电子、富士康、和硕、纬创以数字化方式构建、模拟和运营工厂数字孪生。

富士康透露,其在墨西哥的工厂采用了英伟达的一系列自动化和数字化技术,基于目前的努力,该公司预计可以使用模拟工厂提高复杂服务器的制造效率,从而大幅节省成本并每年减少 30% 以上的千瓦时使用量。

富士康首席执行官兼董事长刘扬伟表示:“AI和机器人技术有望彻底改变制造业,提高工厂车间的安全性并显著提高运营效率。通过将 NVIDIA Omniverse、Metropolis 和 Isaac 整合到我们的运营中,我们可以创建工厂的复杂数字孪生来训练机器人,以前所未有的精度优化工作流程并降低成本。”

英伟达强调,公司正引领价值 50 万亿美元的工业数字化转型,各行业都采用自主运营和数字孪生——提高效率和降低成本运营工厂。

针对消费级设备,黄仁勋透露,目前有超过200款RTX AI 笔记本电脑上市,整个性能高达700 AI TOPs。

最后是机器人。

“下一波人工智能是物理人工智能。能够理解物理定律的人工智能,能够在我们之中工作的人工智能,”黄仁勋强调了机器人和 AI 在未来发展中的重要性。

英伟达发布的NVIDIA Isaac 平台,为开发人员提供了强大的工具包,以构建 AI 机器人,包括 AMR、工业机器手臂和人形机器人,由 AI 模型和 Jetson Orin 和 Thor 等超级计算机提供支持。

“机器人技术已经到来。物理人工智能已经到来。这不是科幻小说,它正在各地使用。这真的非常令人兴奋,”黄仁勋称,全球电子巨头正在将英伟达的自主机器人集成到他们的工厂中,包括全球超过500万个预编程机器人正在进入工厂。

“未来,所有工厂都将是机器人工厂。工厂将协调机器人,而这些机器人将制造机器人产品,”黄仁勋称。

目前,比亚迪电子、西门子、泰瑞达和 Alphabet 旗下公司 Intrinsic 等全球十多家机器人行业领先企业,正在将 NVIDIA Isaac 加速库、基于物理学的仿真和 AI 模型集成到其软件框架和机器人模型中,以此提高工厂、仓库和配送中心的工作效率,使机器人的人类同事更安全地工作,并使机器人成为执行重复性或超精密任务的智能助手。

同时,100 多家公司正在采用 Isaac Sim 来仿真、测试和验证机器人应用,其中包括海克斯康、富世华和 MathWorks。Agility、波士顿动力公司、Figure AI、傅利叶智能和 Sanctuary AI 正在使用 Isaac Lab。

黄仁勋强调,未来所有的产品都将是机器人,当然,其中之一是自动驾驶汽车,或具有大量自主能力的汽车。

“下一个大批量机器人产品将由机器人工厂制造,内部有机器人,可能是人形机器人。近年来,这在基础模型的认知的能力和正在发展的世界理解能力方面都有很大进步。我对这个领域感到非常兴奋,因为很明显,最容易适应世界的机器人是人类或机器人,‘我们’(人形机器人)为我们建造世界。我们还必须获取最多的数据来训练这些机器人,因为我们有相同的体质。或许,你将来会在云中构建可以四处走动的计算机。事实证明,机器人技术将有巨大的前景空间,所以这对我们来说将是一段非凡的未来旅程。”黄仁勋在演讲结尾表示。

总结来说,黄仁勋这次从CUDA软件到GPU硬件全面更新,证明英伟达正“加速一切”,以巩固其在 AI 算力领域的领先地位。

黄仁勋霸气尽显,英伟达要统领全球AI生态

当前,英伟达已经成为 AI 领域的重要推动者,同时也是全球第三大科技巨头,规模超过2.8万亿美元,仅次于微软、苹果公司。

就在5月22日美股盘后,英伟达发布的2025财年一季度财报(2024自然年一季度)显示,当季实现营收260亿美元,同比大增262%,环比增长18%,再创单季营收历史新高;净利润为148.81亿美元,环比增长21%,同比增长628%,营收利润双双暴增。

英伟达预计,今年第二财季营收为280亿美元,上下浮动2%;非通用会计师准则下毛利率约为75.5%,上下浮动50个基点。这一营收指引高于彭博统计的266亿美元市场预期。

这样一种营收预期,让黄仁勋乐到开花。因此,为了这次演讲,黄仁勋提早一个星期来到台北,逛夜市、请酒会、接受人们拍照,甚至和台系供应链成了“铁哥们”。

有趣的是,发布会前夕的一场酒会上,黄仁勋宴请台系供应链厂商高管——华硕董事长施崇棠、和硕董事长童子贤、鸿海董事长刘扬伟、纬创总经理林建勋、纬颖董事长洪丽宁、广达董事长林百里、云达(广达旗下服务器代工厂)总经理杨麒令、英业达董事长叶力诚、英业达总经理蔡枝安、台达电董事长郑平、宜鼎董事长简川胜、广运董事长谢清福及CEO谢明凯等10余人,参与者的身价共计1.5万亿元人民币,每桌消费约1040元。而且,黄仁勋还请台积电创始人张忠谋一起逛夜市,引发所有人的关注。

黄仁勋在餐叙的一开始,便霸气站在椅子上致词,他指出,“我们正在进入AI的新世代,你们生产的东西,是世界上最有价值的产品,这个AI世界若是没有你们的产品,就不可能产生。这是令人兴奋的时刻。我们还有很多工作与努力要做,我们一起工作已经30年,未来十年仍将持续”。

现场立刻有人附和,“我们enjoy”,而黄仁勋也回应“我也enjoy”。

据Digitimes Research此前公布的2022年数据显示,在全球服务器代工制造市场,鸿海的份额高达43%,稳居第一,其除了为惠普(HP)及戴尔(DELL)等品牌代工之外,还握有亚马逊和微软数据中心的订单。紧随其后的广达、纬创、英业达的市场份额分别为17%、14%、12.8%、7.6%。之后除了美商美超微(Supermicro,美国超微电脑股份有限公司)之外,还有神达、技嘉、环鸿、仁宝、和硕,基本都是台系厂商。

总体来看,在全球的服务器代工市场,台系厂商则占据了全球约90%的市场份额。

此次黄仁勋演讲结束后,接下来几天内,Computex大会还会迎来AMD CEO苏姿丰(6月3日9:30-11:00),高通CEO克里斯蒂亚诺・阿蒙(6月3日13:30-14:40),英特尔CEO帕特・基辛格(6月4日11:00-12:00),超微电脑CEO梁见后(6月5日9:30-10:30) 等8大 AI 厂商代表进行演讲,值得关注。

(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)

转载请注明出处、作者和本文链接
声明:文章内容仅供参考、交流、学习、不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

扫描下载App