您的位置:主页 > 公司动态 > 公司新闻 > 公司新闻

英伟达又出新显卡,老黄是想毁了大厂们的自研

老黄又来掀桌了啦!

在今天破晓的 2023 年全球超算大会( SC2023 )上,英伟达推出了全新GPU H200 

作为前代 H100 的升级款,老黄直接不装了,在官网上片面将 H200 称为 “ 当世最强 ” 。

但更秀的是,没人会因此质疑他们违反广告法,由于在 AI 时代,对手们真只能眼巴巴地看着英伟达的车尾灯。

从英伟达官方透露的数据来看, H200 最强的就是在大模子推理显示上。

以 700 亿参数的 LLama2 大模子为例, H200 推理速率险些比前代的 H100 快了一倍,而且能耗还降低了一半。

能取得这么强的成就,自然是 H200 的硬件给力。

从参数方面看, H200 的主要提升就是把上一代 “ G 皇 ”H100 的显存,从 80GB 拉到了 141GB 带宽从 3.35TB/s 增添到了 4.8 TB/s 

而这些提高则主要要归功于HBM3e 内存手艺

今年 8 月的时刻, SK 海力士推出 HBM3e 之后,据宣称单颗带宽可以到达 1.15TB/s ,相当于在 1 秒钟内传输了 230 部 FHD 高清影戏(每部容量 5G )。

在 SK 海力士官宣 HBM3e 之后不久,包罗三星、美光在内的内存厂商们,都陆续跟进了这一手艺。

这个 HBM3e ,着实就是之前人人都在用的 HBM3 的升级版。

说白了就是有更高的性能、更高的带宽,利益就是芯片能用更快的速率传输数据,同时还降低功耗。

异常适合眼下的AI 和大数据运用

于是英伟达*时间就找到 SK 海力士举行了相助。

以是我们能看到这才没多久, H200 就已经用上了这一新手艺。

比起手艺升级更利便的是, H200 和 H100 都是基于英伟达 Hopper 架构打造的。

以是两款芯片可以相互兼容,那些装满了 H100 的企业不需要调整,可以直接替换。

不外,乍一看似乎是王炸,但现实上H200 可能只是 H100 的一个 “ 中期改款 ” 

由于我们发现, H100 和 H200 单论峰值算力的话,着实是一模一样的。

真正提升的参数只有显存、带宽。

而在此前,人人常用来评判 AI 芯片性能的主要参数:训练能力。

H200 相较 H100 的提升并不显著

从英伟达给出的数据来看,在 GPT-3 175B 大模子的训练中, H200 只比 H100 强了 10% 。

在世超看来,这种操作也许率是有意为之

之前各个大厂忙着打造自家的大模子,对 GPU *的需求毫无疑问就是训练,以是那时人人的需求是提升训练能力。

而现在,随着 AI 大语言模子不停落地应用,训练模子在厂商眼中可能已经是牛夫人了,人人反而全去卷推理速率。

以是这次 H200 很可能是有意忽略 “ 算力 ” 升级,转而举行推理方面的发力

不得不说,老黄的刀法依旧精准。

固然了,这也是英伟达工程师们给老黄挤牙膏的本事,谁让人家显卡真就遥遥*呢。

哪怕只是做了个小提升, H200 还真就能当得起 “ 当世最强 ” 的名号。

而且凭证瑞杰金融团体估量, H100 芯片售价在 2 万 5-4 万美金之间,那加量后的 H200 只会比这高

而现在像亚马逊、谷歌、微软和甲骨文等大厂的云部门,已经付完钱排排站,就等着明年 H200 交货了。

10年没有新药的第二大代谢疾病市场,国内企业已重兵布局

究竟,哪家大模子随便升个级不要几千个 GPU ?

只能说这波老黄又又又赚麻了。

但问题就是,加价对于 AI 芯片永远不是问题。

今年头创公司、大厂、政府机构等等为了抢一张 H100 挤破脑壳的样子还在上演,以是明年H200 的销量基本不用愁

“ 是人是狗都在买显卡 ” ,去年说完这句话的马斯克也不得不转头就加入 “ 抢卡雄师 ” 。

更夸张的是,英伟达方面还说了,推出 H200 不会影响 H100 的扩产设计。

也就是明年英伟达照样计划卖 200 万颗 H100 芯片,也能侧面看出, AI 芯片是何等不愁卖。

但面临全球嗷嗷待哺的市场,英伟达着实也有点力有未逮。。

像 OpenAI 作为打响 AI 革命*枪的人,效果由于没有足够的 GPU 痛苦得不行。

好比由于算力不够用,自家 GPT 们被种种吐槽 API 又卡又慢;

由于算力不够用, GPT 更强的上下文能力始终没法全员推广;

由于算力不够用, GPT 们没法卖给客户更多专有定制模子。。。

光连 OpenAI 首创人奥特曼,就已经出来好几回炮轰过算力欠缺。

而为领会决这个问题, OpenAI 也想了不少设施。

好比自研 AI 芯片、与英伟达等制造商睁开更慎密相助、实现供应商多元化等等。

上个月初就有新闻说 OpenAI 已经在找收购目的了。

更进一步的是特斯拉,他们就在 7 月推出了由定制 AI 芯片 D1 打造的 Dojo 超级盘算机,用来训练自动驾驶系统。

那时摩根士丹利直接吹了一篇研报说:特斯拉这波下来,比用英伟达的 A100 足足省下了 65 亿美元

固然,这也不是说马斯克的这个自研的 AI 芯片就比 A100 强了。

而只是由于自研芯片只需要干自家的活,更相符自己需要、也没有算力虚耗。

就好比英伟达的芯片是一锅大杂烩,谁来了吃都能吃饱饱;而自研芯片虽然只是小碗菜,但它可以根据小我私人口味做,虽然做得少、但更合胃口。

其他大厂也没闲着,好比微软要自研 “ 雅典娜 ” 谷歌在年头就在自研芯片上取得突破希望。。

但就像我们前面说的,这次 H200 着实只是一个 “ 中期改款 ” ,还不足以作废其他厂商们的小心思。

根据英伟达自己放出的新闻,大的照样明年会来的 B100 ,从图里看它至少是有指数级的提升

以是世超以为,人人伙忙活半天,在硬实力眼前,黄老爷的位置生怕照样会越来越稳。

你看像是纵然强如 Meta 早在 2021 年就意识到,自己怎么干都比不上英伟达的GPU 性能,转头就从老黄那下了几十亿订单( Meta 最近似乎又有点自研的心思了 )。

还记得老黄刚宣布英伟达是 “ AI 时代的台积电 ” 的时刻,有不少人冷嘲热讽。

效果现在才发现,这句话居然是老黄的谦辞。

究竟 2022 年台积电 “ 只 ” 占了全球晶圆代工产能的 60% ,而英伟达现在已经占有了可用于机械学习的图形处置器市场 80% 以上的份额。

总感受,等老黄的大招真来了,这些大厂们的芯片自研项目生怕又得死一片吧。。。

资料泉源

英伟达官网

The Verge:Nvidia is launching a new must-have AI chip — as customers still scramble for its last one

知乎:英伟达公布天下最强 AI 芯片 H200,性能飙升90%,Llama 2 推理速率翻倍,有何主要意义?