您的位置:主页 > 公司动态 > 公司新闻 > 公司新闻

英伟达曝 AI 专用「核弹」:GPT速率进步 30 倍_外

3 月 21 日晚上 11 点,英伟达 CEO 黄仁勋的讲演,为 GTC 2023 拉开序幕。

ChatGPT 和 GPT-4 掀起这股天然生成式 AI 热潮后,为 AI 供给心脏的英伟杀青了背面的大赢家,也让本年的 GTC 注定成为有史以来最受重视的一届。

黄仁勋没有让重视者绝望。

「AI 的 iPhone 时刻承揽到来。」70 分钟的讲演里,老黄重复了四五遍。

每次讲这句话前,他都市共享一项关于天然生成式 AI 的新期望——对创造、医疗、工业等范畴的革新,让通俗人用浏览器就能练习大模子的云服务,以及让大模子处置本钱下降 10 倍的超级芯片……

「AI 的成长会跨过任何人的幻想。」这句话是对这场讲演*的注脚。

01、让大言语模子的处置本钱下降一个数目级

2012 年,Alex Kerchevsky、Ilya Suskever 和他们的导师 Geoff Hinton 在两块 GeForce GTX 580 上,运用 1400 万张图画练习了 AlexNet——这被以为是这一轮 AI 革新的迎头,半响它初次证明了 GPU 能够用于练习人工智能。

4 年后,黄仁勋亲手向 OpenAI 交付了*台 NVIDIA DGX 超级策画机。往后数年,OpenAI 在大型言语模子上的打破让 AIGC 转换进入人们的视界,并在上一年年末推出 ChatGPT 后完全破圈。几个月内这个对话式 AI 产品招引了跨过 1 亿用户,成为历史上增进最快的 App。

NVIDIA DGX 开始被用作 AI 的研讨配备,现在承揽被企业遍及用于优化数据和处置 AI。凭据黄仁勋,财富 100 强公司中有一半安装了 DGX。

在这之中,布置像 ChatGPT 这样的 LLM 正在成为 DGX 越来越首要的一项工作。对此,黄仁勋宣告了一种新的 GPU——带有双图形处置器 NVLink 的 H100 NVL。

根据英伟达的 Hopper 架构,H100 接收 Transformer 引擎,被规划用于专门处置相似 GPT 这样的模子。与用于 GPT-3 处置的 HGX A100 比较,一个搭载四对 H100 和 NVLINK 的标准服务器的处置速率快 10 倍。凭据官网数据,H100 的归纳手工立异。能够将大型言语模子的速率进步 30 倍。

「H100 能够将大型言语模子处置本钱下降一个数目级,」黄仁勋购置。

此外,在已往的十年里,云策画每年增进 20%,成为一个 1 万亿美元的职业。为了 AI 和 云策画,英伟达规划了 Grace CPU,在新的架构下,GPU 卖力处置 AI 的工作负载,Grace CPU 卖力采样,二者之间经过一个 900 GB/s 的高速传输配备毗连在一起。

「Grace-Hopper 是处置大规模数据集的*挑选。」黄仁勋称,「咱们的客户期望建立练习数据大几个数目级的 AI 大模子,Grace-Hopper 是抱负的引擎。」

某种意义上来说,策画本钱承揽成为今日阻止天然生成式 AI 成长的焦点问题,OpenAI 为此烧掉了数十亿乃至上百亿美元,微软也出于本钱思量一直没有向更大约束的民众敞开新 Bing,乃至约束用户天天的对话次数。

英伟达此刻推出更高效的算力计划,无疑是给职业处理了一个浩劫题。

02、DGX Cloud:让任何企业

都能构建 AI 才能

本年 GTC 上另一个触及天然生成式 AI 的要点,便是 DGX Cloud。

实际上,这并不是英伟达*次宣告 DGX Cloud。此前英伟达四序报发布时,黄仁勋就向外界泄漏英伟达将与云服务厂商张开相助,让客户能够运用网页浏览器,就能经过 NVIDIA DGX Cloud 来运用 DGX 策画机,然后练习和布置大型言语模子或完结其他 AI 工作负载。

英伟达承揽与甲骨文张开相助,估计下个季度微软 Azure 也会转换保管 DGX 云,而谷歌云也将在不久之后参加这一队伍,以保管的方法向那些有志愿构建新产品和成长 AI 战略的企业供给 DGX 云服务。

黄仁勋称,这种相助联系将英伟达的生态系统带到了云服务商手中,绑架扩展了英伟达的市场规模和笼罩面。企业将能够每月租借 DGX 云集群,保证他们能够快速轻松地扩展大型多节点 AI 练习。

03、ChatGPT 仅仅转换

「加快策画是曲速引擎,AI 便是它的动力。」黄仁勋说道,「天然生成式 AI 一日千里的才能,给咱们从头设想其产品和商业模式带来了紧迫感。」

ChatGPT 和 GPT-4 为代表的大言语模子在已往几个月火遍全球,但对英伟达来说,ChatGPT 和大模子并不是 AI 的一切。会上,黄仁勋还共享了更多英伟达在 AI 范畴的探究和他自己的调查。

首先是最火的天然生成式 AI。

只需求一张手绘的草图,就能天然生成 3D 建模的户型。

编撰代码也不在话下。

尚有创造音乐。

为了加快那些寻求行使天然生成 AI 的人的工作,英伟达宣告建立 NVIDIA AI Foundations,这是一个云服务和代工厂,面向需求构建、改进和定制 LLM 和天然生成式 AI 的用户,这些客户运用其专有数据练习特定范畴的 AI。

AI Foundations 的服务包含 NVIDIA NeMo,用于构建文本-文本的天然生成模子;毕加索,一种视觉言语模子制作服务,面向期望构建根据经授权内容练习模子的用户;以及 BioNeMo,辅佐生物医药研讨职工。

作为生产力东西,AI 也在发挥巨大的价值,黄仁勋在讲演中介绍了几个反常有意思的事例。

*个是与美国电信巨子 AT&T。AT&T 需求定时差遣 3 万名手工职工,为 700 个区域的 1300 万名客户供给服务。这个严重的数据,调剂是一个痛点,若是在 CPU 上运转,调剂优化需求一整夜的时刻才华完结。


凭借英伟达的 CuOpt,AT&T 能够将调剂计划的优化时刻加快 100 倍,并可实时更新其调剂计划。

某种意义上,在英伟达的辅佐下,AT&T 做到了美团、滴滴这些需求实时匹配的互联网公司用许多多少年堆集才做到的工作。

另一个事例是与芯片公司的相助。大多数人都知道了光刻机这个半导体工业的要害配备。但不为人知的是,跟着制程手工的成长,芯片规划对算力的需求也是半导体职业的一大痛点。

今日策画光刻是芯片规划和制作范畴*的策画工作负载,每年需求耗费数百亿 CPU 小时,并且跟着算法越来越巨大,策画光刻的本钱也在进步。

对此,英伟达宣告推出 cuLitho——一个策画光刻库。并与 ASML、台积电等巨子张开相助,然后大幅下降芯片规划进程中的算力耗费,节能减排。

事实上,减少动力耗费,进步策画功率,是黄仁勋眼中 AI 手工将为人类社会带来的另一大价值。而在摩尔定律失效的当下,加快策画和 AI 的到来恰逢当时。

「各职业正都在面对可连续成长、天然生成式 AI 和数字化的应战。工业公司正在竞相数字化,并重塑为软件驱动的科技公司——成为推翻者,而不是被推翻者,」加快策画让这些公司能够应对这些应战,黄仁勋说道。「加快策画是减少电力耗费、完成可连续性成长和碳中和的*方法。」

最终,相似于一个彩蛋,从老黄此次讲演的显现不难展望,视频中泛起的老黄,应该全程是一个虚拟形象。如无意外,很有或许也是「天然生成式 AI」的产品——在显现 AI 进步的绑架,也算是黄仁勋为自己家「核弹算力」再次「言传身教」。