背景
2023年5月30日 16:05

英伟达市值超万亿美元:发布超级芯片GH200和AI计算平台

上周,英伟达(NVIDIA)股价上涨了25%,市值接近万亿美元,其创始人黄仁勋的身价也超过了330亿美元。黄仁勋在5月29日出席了在中国台北举办的COMPUTEX大会,并在会上发布了面向各行业的生成式AI平台。黄仁勋表示:“我们正在重新定义计算机,加速计算和人工智能正在改变计算的本质。”他正在引领英伟达从一家芯片公司转变为提供AI计算系统的公司,并预言人工智能的时代已经来临。


一、英伟达发布超级芯片GH200和AI计算平台
英伟达紧跟AI技术潮流,在硬件领域发布了一系列产品和解决方案。其中包括:

1.DGX GH200:英伟达推出了大内存生成式AI超级计算机DGX GH200,该计算机采用了Grace Hopper超级芯片GH200,可加速生成式AI设计。GH200超级芯片已全面投产。

2.Spectrum-X:英伟达推出了全新的加速以太网平台Spectrum-X,为游戏提供定制化AI模型代工服务。

3.生成式AI内容引擎:英伟达与全球最大的营销服务机构WPP合作,打造生成式AI内容引擎。多家世界顶级电子制造商采用英伟达生成式AI工具与Omniverse平台构建先进的数字工厂。

NVIDIA GH200 Grace Hopper超级芯片将为全球即将上线的系统提供运行复杂AI和HPC工作负载所需的动力。该芯片采用了NVIDIA NVLink-C2C互连技术,将基于Arm的NVIDIA Grace CPU和Hopper GPU架构互联,实现了高达900GB/s的总带宽,比传统加速系统中的标准PCIe Gen5通道高出7倍。这使得GH200芯片在计算能力上有了显著的提升,并能够满足最苛刻的生成式AI和HPC应用的要求。

GH200超级芯片集成了72核的Grace CPU、H100 GPU、96GB的HBM3和512GB的LPDDR5X,拥有高达2000亿个晶体管。这种组合提供了CPU和GPU之间惊人的数据带宽,高达900GB/s,为某些内存受限的工作负载提供了巨大的优势。

此外,英伟达还发布了一款新型大内存AI超级计算机DGX,由NVIDIA GH200 Grace Hopper超级芯片和NVIDIA NVLink Switch System驱动。该计算机旨在助力开发面向生成式AI语言应用、推荐系统和数据分析工作负载的巨型、下一代模型。DGX GH200采用了一种新的NVLink Switch系统,包含36个NVLink开关,将256个GH200 Grace Hopper芯片和144TB的共享内存连接成一个单元。英伟达表示,256颗Grace Hopper超级芯片将DGX GH200的AI性能提升到了exaflop(一百万亿次)。

NVIDIA加速计算副总裁Ian Buck表示:“生成式AI正在迅速带来业务变革,解锁医疗、金融、商业服务等行业的新机遇,并加速这些行业的研发工作。随着GH200 Grace Hopper超级芯片的全面投产,全球制造商将能够提供企业所需的加速基础设施,以构建和部署生成式AI应用,利用专有数据开展业务。


二、ChatGPT 问世后,芯片行业变天了
芯片行业在ChatGPT问世后发生了翻天覆地的变化。在2022年,英伟达发布了H100处理器,这是他们有史以来最强大、也最昂贵的处理器之一,价格高达4万美元。当时,这款产品的发布时机并不理想,因为企业客户在通胀压力下削减了开支。然而,在11月,ChatGPT的问世改变了一切。

英伟达首席执行官黄仁勋表示:“经历了艰难的一年后,情况似乎一夜之间发生了转变。”OpenAI开发的这款热门聊天机器人成为了一个“尤里卡时刻”,立即创造了巨大的需求。

ChatGPT的迅速走红引发了全球科技巨头和初创公司之间的军备竞赛,各方开始争夺宝贵的H100资源。黄仁勋称该产品是“全球首个专门为生成式AI设计的计算机芯片”,能够帮助AI系统更快速地生成流畅自然的文本、图像和内容。

在过去的一周里,推出正确产品的正确时机再次成为决胜的关键。英伟达上周三宣布,截至7月的本季度销售额预计将达110亿美元,超过华尔街之前的估计超过50%。这波强劲增长背后,无疑是大型科技公司恢复数据中心支出和疯狂采购AI芯片的现实需求。

投资者对这一预测也给予了积极回应,仅上周四一天,英伟达公司市值增加了1840亿美元。因此,作为全球最有价值的芯片公司之一,英伟达的估值开始逼近万亿大关。

英伟达成为生成式AI飞速发展的最早受益者。这项技术有望重塑各行各业,带来巨大的生产力提升,并取代数百万个工作岗位。而H100芯片将加速这一技术的飞跃。H100基于英伟达全新的芯片架构"Hopper",以美国编程先驱Grace Hopper的名字命名,如今成为整个硅谷最炙手可热的稀缺资源。

黄仁勋表示:“正当我们开始批量生产Hopper芯片之际,AI突破了。”也就是说,Hopper芯片在ChatGPT正式发布几周之前开始大规模生产。

黄仁勋对持续收益的信心主要源于与芯片制造巨头台积电的密切合作。双方计划扩大H100的生产规模,以满足微软、亚马逊、谷歌等云服务提供商,以及Meta等互联网巨头和其他企业客户的爆发性需求。

CoreWeave是一家专注于人工智能的云基础设施初创公司之一。作为首批获得H100芯片的客户之一,该公司的首席战略官Brannin McBee表示,H100已经成为全球最稀缺的工程资源之一。

然而,还有一些客户需要等待长达半年的时间才能获取用于训练大规模数据模型的H100芯片供应。更多的人工智能初创公司纷纷表示担心,称一旦需求爆发,H100芯片将面临供不应求的局面。

ChatGPT的问世彻底改变了芯片行业的格局。英伟达成为了生成式AI快速发展的首批受益者,而H100芯片的推出则加速了这一技术的突破。这一变革不仅重塑了各行各业,提升了生产力,还为英伟达赢得了巨大的市场份额和估值增长。

随着ChatGPT和生成式AI的崛起,芯片行业进入了一个全新的时代,其中英伟达凭借H100芯片成为了引领者。这一趋势将继续推动AI技术的发展,为各行各业带来更多创新和商机。


三、英伟达成为AI浪潮中的首批赢家
连马斯克也为自己的AI初创公司X.ai购买了大量的英伟达芯片。他在本周的《华尔街日报》活动中表示,目前GPU比药品更难获得,还开玩笑说在旧金山随处可见这种情况。

计算成本已经飙升至天文数字,最低的准入门槛也需要投入2.5亿美元来构建生成式AI系统的服务器硬件。

事实证明,微软和亚马逊等大型科技企业特别青睐H100芯片。他们正在建立以AI工作负载为中心的更多数据中心。此外,OpenAI、Anthropic、Stability AI和Inflection AI等AI初创公司也对H100的性能承诺密切关注,希望利用其力量加快产品发布并降低训练成本。

英伟达超大规模与高性能计算业务负责人Ian Buck表示,从购买难度来看,的确新架构GPU很难获得。肩负着增加H100以满足需求这一艰巨任务的Buck承认,目前供不应求已经成为一项规模性事件,一些大客户正在疯狂采购数以万计的GPU。

这种性能强大的芯片充当着数据中心的加速器,其搭载的800亿个晶体管数量是最新款iPhone处理器晶体管数量的5倍。尽管H100的售价是上一代A100芯片的两倍,但早期买家纷纷表示其性能至少提高了3倍,因此仍然具有很高的性价比。

作为Stable Diffusion图像生成服务背后的供应商,Stability AI的联合创始人兼首席执行官Emad Mostaque表示,H100解决了长期困扰AI模型创建者的可扩展性问题。他说:“这非常重要,它能够让我们更快地训练出更大的模型,真正将研究问题转化为工程问题。”

尽管H100的发布非常及时,但英伟达在AI领域的突破实际上源自近20年前的软件创新。

英伟达的CUDA软件诞生于2006年,其作用是让GPU在图形之外作为其他工作负载类型的加速器。到2012年左右,“AI终于找到了我们。”

加拿大的研究人员很快意识到GPU非常适合用于创建神经网络,这是一种受到人脑内神经元相互作用启发而来的AI形式,后来成为了AI开发的新焦点。Buck感慨地说:“我们花了近20年才最终走到了今天。”

如今,英伟达拥有的软件工程师数量比硬件工程师还多,这使得他们能够支持未来几年出现的多种不同类型的AI框架,并且使得他们的芯片在训练AI模型所需的统计计算方面更加高效。

Hopper是首个针对transformers进行优化的架构,而transformers是支持OpenAI聊天机器人明星的底层AI方法。通过与AI研究人员的密切合作,英伟达在2017年就注意到了transformers的出现,并开始相应地调整自己的软件。

AI初创企业投资方Air Street Capital的普通合伙人Nathan Benaich指出,英伟达可以说比其他公司更早地看到了未来,并且将重点放在了GPU可编程方面。在发现机遇并押注之后,英伟达获得了持续领先竞争对手的优势。

Benaich估计,英伟达比其他竞争对手领先约两年。不过他也补充说:“英伟达在硬件和软件方面的市场地位恐怕还没有达到坚不可摧的水平。”

Stability AI的Mostaque对此表示赞同。他说:“谷歌、英特尔和其他公司打造的下一代芯片正在迎头赶上。而且随着软件标准化的普及,甚至Cuda也不足以构成可靠的技术壁垒。”

然而,对于AI领域其他一些从业者来说,华尔街本周的热情似乎有点过于乐观。不过芯片咨询公司D2D Advisory的创始人Jay Goldberg仍然承认:“从目前情况来看,AI半导体市场仍然是英伟达独领风骚的局面。”