英伟达发布ChatGPT专用GPU,推理速度提升了10倍

钛度号
AI 的 iPhone 时刻,要有一块好的芯片。

图片来源@视觉中国

图片来源@视觉中国

钛媒体注:本文来源于微信公众号机器之心(ID:almosthuman2014),钛媒体经授权发布。

曾何几时,人工智能因为算力不足进入了长达数十年的瓶颈,GPU 点燃了深度学习。在 ChatGPT 时代,AI 因为大模型再次面临算力不足的问题,这一次英伟达还有办法吗?

3 月 22 日,GTC 大会正式召开,在刚刚进行的 Keynote 上,英伟达 CEO 黄仁勋搬出了为 ChatGPT 准备的芯片。

「加速计算并非易事,2012 年,计算机视觉模型 AlexNet 动用了 GeForce GTX 580,每秒可处理 262 PetaFLOPS。该模型引发了 AI 技术的爆炸,」黄仁勋说道。「十年之后,Transformer 出现了,GPT-3 动用了 323 ZettaFLOPS 的算力,是 AlexNet 的 100 万倍,创造了 ChatGPT 这个震惊全世界的 AI。崭新的计算平台出现了,AI 的 iPhone 时代已经来临。」

AI 的繁荣推动英伟达股价在今年上涨了 77%,目前,英伟达的市值为 6400 亿美元,已是英特尔的近五倍。不过今天的发布告诉我们,英伟达的脚步还没有停。

为 AIGC 设计专用算力

生成式 AI(AIGC )的发展正在改变科技公司对于算力的需求,英伟达一次展示了四种针对 AI 任务的推理平台,它们都使用了统一的架构。

其中,NVIDIA L4 提供「比 CPU 高 120 倍的 AI 驱动视频性能,以及 99% 的能源效率」,可以用于视频流、编码和解码以及生成 AI 视频等工作;算力更强的 NVIDIA L40 则专门用于 2D/3D 图像生成。

针对算力需求巨大的 ChatGPT,英伟达发布了 NVIDIA H100 NVL,这是一种具有 94GB 内存和加速 Transformer Engine 的大语言模型(LLM)专用解决方案,配备了双 GPU NVLINK 的 PCIE H100 GPU。

「当前唯一可以实际处理 ChatGPT 的 GPU 是英伟达 HGX A100。与前者相比,现在一台搭载四对 H100 和双 NVLINK 的标准服务器速度能快 10 倍,可以将大语言模型的处理成本降低一个数量级,」黄仁勋说道。

最后还有 NVIDIA Grace Hopper for Recommendation Models,除了为推荐任务优化之外,它还可以为图形神经网络和矢量数据库提供动力。

让芯片突破物理极限

当前,半导体的生产工艺已经逼近物理学所能达到的极限。2nm 制程之后,突破点又是什么?英伟达决定从芯片制造的最原始阶段 —— 光刻入手。

从根本上说,这是一个物理极限下的成像问题。在先进制程下,芯片上的许多特征会小于打印过程中使用的光的波长,掩模的设计必须不断进行修改,这一步骤称为光学邻近校正。计算光刻模拟了光通过原件与光刻胶相互作用时的行为,这些行为是根据麦克斯韦方程描述的,这是芯片设计制造领域中需要算力最多的任务。

黄仁勋在 GTC 上宣布了一项名为 CuLitho 的新技术,用以加快半导体的设计和制造。该软件使用英伟达芯片来加速基于软件的芯片设计,并加速用于在芯片上打印该设计的光刻掩模的物理制造之间的步骤。

CuLitho 在 GPU 上运行,其性能比目前的光刻技术提高了 40 倍,可以加速目前每年消耗数百亿个 CPU 小时的大规模计算工作负载。「造 H100 需要 89 块掩膜版,在 CPU 上运算时一块就得算两个星期,但如果用 H100 在 CuLitho 上运行就只需要 8 个小时,」黄仁勋说道。

这意味着 500 个英伟达 DGX H100 系统就能够替代 4 万个 CPU 系统的工作,并运行计算光刻工艺的所有部分,帮助减少电力需求和对环境的潜在影响。

这一进展将使芯片的晶体管和电路比现在尺寸更小,同时加快了芯片的上市时间,并提高为推动制造过程而全天候运行的大规模数据中心的能源效率。

英伟达表示,它正在与 ASML、Synopsys 和台积电合作,将该技术推向市场。据介绍,台积电将在 6 月开始准备该技术的试产。

「芯片行业是世界上几乎所有其他行业的基础,」黄仁勋表示。「由于光刻技术已处于物理学的极限,通过 CuLitho 以及与我们的合作伙伴台积电、ASML 和 Synopsys 的合作,晶圆厂能够提高产量,减少碳足迹,并为 2nm 及以后的发展奠定基础。」

首个 GPU 加速的量子计算系统

在今天的活动中,英伟达还宣布了一个使用 Quantum Machines 构建的新系统,该系统为从事高性能和低延迟量子经典计算的研究人员提供了一种革命性的新架构。

作为全球首个 GPU 加速的量子计算系统,NVIDIA DGX Quantum 将全球最强大的加速计算平台(由 NVIDIA Grace Hopper 超级芯片和 CUDA Quantum 开源编程模型实现)与全球最先进的量子控制平台 OPX(由 Quantum Machines 提供)相结合。这种组合使研究人员能够建立空前强大的应用,将量子计算与最先进的经典计算相结合,实现校准、控制、量子纠错和混合算法。

DGX Quantum 的核心是一个由 PCIe 连接到 Quantum Machines OPX + 的 NVIDIA Grace Hopper 系统,实现了 GPU 和量子处理单元(QPU)之间的亚微秒级延迟。

英伟达公司 HPC 和量子主管 Tim Costa 表示:「量子加速的超级计算有可能重塑科学和工业,英伟达 DGX Quantum 将使研究人员能够突破量子 - 经典计算的界限。」

对此,英伟达将高性能的 Hopper 架构 GPU 与该公司的新 Grace CPU 整合为「Grace Hopper」,为巨型 AI 和 HPC 应用提供了超强的动力。它为运行 TB 级数据的应用提供了高达 10 倍的性能,为量子 - 经典研究人员解决世界上最复杂的问题提供了更多动力。

DGX Quantum 还为开发者配备了英伟达 CUDA Quantum,这是一个强大的统一软件栈,现在已经开放了源代码了。CUDA Quantum 是一个混合型量子 - 经典计算平台,能够在一个系统中整合和编程 QPU、GPU 和 CPU。

每月 3.7 万美元,网页上训练自己的 ChatGPT

微软斥资数亿美元购买了数万块 A100 构建了 GPT 专用超算,你现在可能会想要租用 OpenAI 和微软训练 ChatGPT 和必应搜索相同的 GPU 来训练自己的大模型。

英伟达提出的 DGX Cloud 提供了专用的 NVIDIA DGX AI 超级计算集群,搭配 NVIDIA AI 软件,该服务使每个企业都可以使用简单的网络浏览器访问 AI 超算,消除了获取、部署和管理本地基础设施的复杂性。

据介绍,每个 DGX Cloud 实例都具有八个 H100 或 A100 80GB Tensor Core GPU,每个节点共有 640GB GPU 内存。使用 NVIDIA Networking 构建的高性能、低延迟结构确保工作负载可以跨互连系统集群扩展,允许多个实例充当一个巨大的 GPU,以满足高级 AI 训练的性能要求。

现在,企业可以按月租用 DGX Cloud 集群,快速轻松地扩展大型多节点训练工作负载的开发,而无需等待通常需求量很大的加速计算资源。

而月租的价格,据黄仁勋介绍,每个实例每月 36999 美元起。

「我们正处于人工智能的 iPhone 时刻,」黄仁勋表示:「初创公司竞相打造出了颠覆性产品和商业模式,而现有企业也在寻求回应。DGX Cloud 让客户能够即时访问全球规模的云中的 NVIDIA AI 超级计算。」

为了帮助企业迎接生成式 AI 的浪潮,英伟达同时宣布了一系列云服务,让企业能够构建、改进定制的大型语言模型和生成式 AI 模型。

现在,人们可以使用 NVIDIA NeMo 语言服务和 NVIDIA Picasso 图像、视频和 3D 服务来构建专有的、特定领域的生成式 AI 应用程序,用于智能对话和客户支持、专业内容创建、数字模拟等。另外,英伟达还宣布了 NVIDIA BioNeMo 生物学云服务的新模型。

「生成式 AI 是一种新型计算机,可以用人类的自然语言进行编程。这种能力影响深远 —— 每个人都可以命令计算机来解决问题,而此前不久,这还是程序员们的专利,」黄仁勋说道。

从今天的发布内容看来,英伟达不仅正在针对科技公司的 AI 负载不断改进硬件设计,也在提出新的商业模式。在一些人看来,英伟达是想做「AI 领域的台积电」:像晶圆厂一样提供先进生产力代工服务,帮助其他公司在其之上训练各自特定场景的 AI 算法。

用英伟达的超算训练,直接省去中间商赚差价,会是未来 AI 发展的方向吗?

本文系作者 机器之心 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
17
11

扫描下载App