您的位置:主页 > 公告动态 > 远大动态 > 远大动态

疯狂的H100-国际原油

2023年8月3日,华尔街和硅谷携手送上了一件震撼业界的大事:让一家创业公司拿到23亿美元的债务融资,抵押物则是当前全球最硬的通货——H100显卡

这个大事宜的主角叫做CoreWeave,主营营业是AI私有云服务,简朴说就是通过搭建拥有大量GPU算力的数据中央,来给AI创业公司和大型商业客户提供算力基础设施。CoreWeave累计融资5.8亿美金,现在是B轮,估值20亿美元。

CoreWeave确立于2016年,首创人是三个华尔街大宗商品生意员。刚最先公司的主营营业只有一个:挖矿,采购大量GPU来组建矿机中央,尤其是在币圈低潮时,公司会逆周期囤大量显卡,也因此跟英伟达确立了铁杆的革命友谊。

CoreWeave三位团结首创人

2019年,CoreWeave最先把这些矿机刷新成企业级数据中央,向客户提供AI云服务,刚最先的生意也不温不火,但ChatGPT降生之后,大模子的训练和推理天天都在消耗大量算力,已经拥有数万张显卡(固然未必是最新型号)的CoreWeave嗖的一下腾飞,门口挤满了客户和风投。

但令人感应蹊跷的是:CoreWeave累计一共只融到了5.8亿美金,账面GPU的净值不会跨越10亿美元,甚至公司整体估值也只有20亿美元,但为何却能通过抵押借到23亿美元呢?一直精于算计、热衷对抵押物价值膝盖斩的华尔街,为何云云慷慨呢?

缘故原由极有可能是:CoreWeave虽然账上还没这么多显卡,但它拿到了英伟达的供货准许,尤其是H100。

CoreWeave跟英伟达的铁杆关系已经是硅谷果然的隐秘。这种铁杆泉源于CoreWeave对英伟达的毫无二心的忠诚和支持——只用英伟达的卡、坚决不自己造芯、显卡卖不动时帮英伟达囤卡。对黄仁勋来说,这种关系的含金量,远超跟微软、Google和特斯拉的那些塑料友谊。

因此,只管英伟达H100十分紧缺,英伟达照样把大量新卡分配给了CoreWeave,甚至不惜限制对亚马逊和谷歌等大厂的供应。黄仁勋在电话聚会里夸赞:“一批新的GPU云服务提供商会崛起,其中最著名的是 CoreWeave,他们做得异常好。”

而在喜提23亿美金的一周前,CoreWeave就已对外宣称,将耗资16亿美元在德州确立一个占地面积42,000 平方米的数据中央。仅依附跟英伟达之间的关系和优先配货权,CoreWeave就可以把建数据中央的钱从银行里借出来——这种模式,让人想起了拿地后立马找银行贷款的地产商。

以是可以这样说:当下一份H100的供货准许,堪比房地产黄金时代的一纸土地批文。

一卡难求的H100

今年4月在接受采访时,马斯克埋怨道[2]:“现在似乎连狗都在买GPU。”

很取笑的是,特斯拉早在2021年就公布了自研的D1芯片,由台积电代工,接纳7nm工艺,号称能替换那时英伟达主流的A100。但2年已往了,英伟达推出了更为壮大的H100,而特斯拉的D1没有后续迭代,因此当马斯克试图组建自家的人工智能公司时,照样得乖乖地跪在黄老爷门前求卡。

H100在去年9月20日正式推出,由台积电4N工艺代工。相较于前任A100,H100单卡在推理速率上提升3.5倍,在训练速率上提升2.3倍;若是用服务器集群运算的方式,训练速率更是能提高到9倍,原本一个星期的事情量,现在只需要20个小时。

GH100 架构图

相比A100,H100的单卡价钱更贵,约莫是A100的1.5~2倍左右,但训练大模子的效率却提升了200%,这样这算下来的“单美元性能”更高。若是搭配英伟达最新的高速毗邻系统方案,每美元的GPU性能可能要凌驾 4-5 倍,因此受到客户疯狂追捧。

抢购H100的客户,主要分成三类:

*类是综合型云盘算巨头,好比微软Azure、谷歌GCP和亚马逊AWS这样的云盘算巨头。他们的特点是财大气粗,动辄就想“包圆”英伟达的产能,但每家也都藏着小心思,对英伟达的近垄断职位感应不满,暗地里自己研发芯片来降低成本。

第二类是自力的云GPU服务商,典型公司如前文提到的CoreWeave,以及Lambda、RunPod等。这类公司算力规模相对较小,但能够提供差异化的服务,而英伟达对这类公司也是鼎力扶持,甚至直接出钱投资了CoreWeave和Lambda,目的很明确:给那些私自造芯的巨头们上眼药。

第三类是自己在训练LLM(大语言模子)的巨细公司。既包罗Anthropic、Inflection、Midjourney这种初创公司,也有像苹果、特斯拉、Meta这样的科技巨头。它们通常一边使用外部云服务商的算力,一边自己采购GPU来自建炉灶——有钱的多买,没钱的少买,主打一个丰俭由人。

在这三类客户中,微软Azure至少有5万张H100,谷歌手上也许有3万张,Oracle也许有2万张左右,而特斯拉和亚马逊手上也至少拿有1万张左右,CoreWeave据称有3.5万张的额度准许(现实到货也许1万)。其他的公司很少有跨越1万张的。

这三类客户总共需要若干张H100呢?凭证外洋机构GPU Utils的展望,H100当前需求也许43.2万张。其中OpenAI需要5万张来训练GPT-5,Inflection需求2.2万张,Meta则是2.5万张(也有说法是10万张),四大公有云厂商每家都需要至少3万张,私有云行业则是10万张,而其他的小模子厂商也有10万张的需求[3]。

英伟达2023年的H100出货量也许在50万张左右,现在台积电的产能仍在爬坡,到年底H100一卡难求的逆境便会缓解。

但耐久来看,H100的供需缺口会随着AIGC的应用发作而继续水涨船高。凭证金融时报的报道,2024年H100的出货量将高达150万张-200万张,相比于今年的50万张,提升3-4倍[4]。

而华尔街的展望则更为激进:美国投行Piper Sandler以为明年英伟达在数据中央上的营收将跨越600亿美元(FY24Q2:103.2亿美元),按这个数据倒推,A H卡的出货量靠近300万张。

尚有更夸张的估量。某H100服务器*的代工厂(市占率70%-80%),从今年6月最先就陆续出货了H100的服务器,7月份产能陆续爬坡。一份最近的调研显示,这家代工厂以为2024年A H卡的出货量会在450万张~500万张之间。

这对英伟达意味着“泼天的富贵”,由于H100的暴利水平,是其他行业人难以想象的。

比黄金更贵的显卡

为了搞清H100有多暴利,我们不妨把它的物料成本(Bill of Materials, BOM)彻底拆解出来。

如图所示,H100最通用的版本H100 SXM接纳的是台积电CoWoS的7晶粒封装,6颗16G的HBM3芯片排列两排牢牢围绕着中央的逻辑芯片。

而这也组成了H100最主要的三个部门:逻辑芯片、HBM存储芯片、CoWoS封装,除此之外,尚有诸如PCB板以及其他的一些辅助器件,但价值量不高。

H100拆机图

焦点的逻辑芯片尺寸是814mm^2,产自台积电*进的台南18号工厂,使用的工艺节点则是“4N”,虽然名字上是4打头,但现实上是5nm 。由于5nm的下游,手机等领域的景心胸不佳,因此台积电在保供逻辑芯片上没有任何问题。

而这块逻辑芯片是由12寸(面积70,695mm^2)的晶圆切割发生,理想状态下可以切出86块,但思量到“4N”线80%的良率以及切割消耗,最后一张12寸晶圆只能切出65块的焦点逻辑芯片。

这一块焦点逻辑芯片的成本是若干呢?台积电2023年一片12寸的晶圆对外报价是13,400美元,以是折算下来单块也许在200美元左右。

接下来是6颗HBM3芯片,现在由SK海力士独供,这家起源于现代电子的企业,2002年险些要委身与美光,依附着政府的输血以及逆周期上产能的战略,现在在HBM的量产手艺上至少*美光3年(美光卡在HBM2e,海力士2020年中期量产)。

诺和诺德、礼来的新较量

HBM的详细价钱,各家都讳莫如深,但凭证韩媒的说法,HBM现在是现有DRAM产物的5-6倍。而现有的GDDR6 VRAM的价钱也许是每GB3美元,云云推算HBM的价钱是在每GB 15美元左右。那一张H100 SXM在HBM上的破费就是1500美元。

虽然今年HBM的价钱不停上涨,英伟达、Meta的高管也亲赴海力士“管工”,可下半年三星的HBM3就能逐步量产出货,再加上韩国双雄*的扩张血脉,想必到了明年HBM就不再是瓶颈。

而真正是瓶颈的则是台积电的CoWoS封装,这是一种2.5D的封装工艺。相比于直接在芯片上打孔(TSV)、布线(RDL)的3D封装,CoWoS可以提供更好的成本、散热以及吞吐带宽,前两者对应HBM,后两者则是GPU的要害。

以是想要高存力、高算力的芯片,CoWoS就是封装上的*解。英伟达、AMD两家的四款GPU都用上了CoWoS就是*的佐证。

CoWoS的成本是若干呢?台积电22年财报披露了CoWoS工艺占总营收7%,于是外洋剖析师Robert Castellano凭证产能,以及裸晶的尺寸推算出封装一块AI芯片能给台积电带来723美元的营收[6]。

因此把上述*的三块成本项加总,合计在2,500美元左右,其中台积电占了$1,000(逻辑芯片 CoWoS)左右,SK海力士占了1500美金(未来三星一定会问鼎),再算上PCB等其他质料,整体物料成本不跨越3000美金。

那H100卖若干钱呢?35000美金,直接加了一个零,毛利率跨越90%。已往10年英伟达毛利率也许在60%上下,现在受高毛利的A100/A800/H100的拉动,今年Q2英伟达的毛利率已经站上了70%。

这有点反知识:英伟达严重依赖台积电的代工,后者职位无人撼动,甚至是*能卡英伟达脖子的焦点环节。但这么一块3.5万美金的卡,制造它的台积电只能拿1000美金,而且只是收入,不是利润。

不外,用毛利率来界说暴利,对于芯片公司意义不大,要是从沙子最先算,那毛利率更高。一张4N工艺的12寸晶圆,台积电卖给谁都差不多是1.5万美金一片,英伟达能加个零卖给客户,自然有其诀窍。

这个诀窍的隐秘在于:英伟达本质上,是一个伪装成硬件厂商的软件公司。

软硬一体的护城河

英伟达最壮大的武器,就藏在毛利率减去净利率的那一部门。

在本轮AI热潮之前,英伟达的毛利率常年维持在65%上下,而净利率通常只有30%。现在年Q2受高毛利的A100/A800/H100的拉动,毛利率站上70%,净利率更是高达45.81%。

近 3 财年英伟达(NVIDIA)单季度毛利率与净利率

英伟达现在在全球有跨越2万名员工,多数是高薪的软硬件工程师,而凭证美国猎聘Glassdoor的数据,这些岗位的平均年薪基本都高于20万美元/年。

近十个财年英伟达研发用度率

在已往的十年里,英伟达研发支出的*值保持着高速增进,而研发用度率稳态下也维持在20%以上。固然,若是某一年的终端需求发作,好比2017年的深度学习、21年的挖矿、以及今年的大语言模子,营收的分母蓦地抬升,研发用度率就会短暂的摔倒20%,响应地利润也会非线性暴增。

而在英伟达研发的这么多项目中最要害的无疑是CUDA。

03年为解决DirectX编程门槛过高的问题,Ian Buck的团队推出了一款名为Brook的编程模子,这也是厥后人们常说的CUDA的雏形。06年Buck加入英伟达,并说服黄仁勋研发CUDA[8]。

由于支持C语言环境下的并行盘算,使得CUDA一跃成为工程师的*,也让GPU走上了通用处置器(GPGPU)的蹊径。

在CUDA逐渐成熟之后,Buck再次劝说黄仁勋,让英伟达未来所有的GPU都必须支持CUDA。06年CUDA立项,07年推生产物,那时英伟达的年营收仅有30亿美元,却在CUDA上破费5亿美金,到了17年时,单在CUDA上的研发支出就已跨越了百亿。

曾经有位私有云公司的CEO在接受采访时说过,他们也不是没想过转去买AMD的卡,但要把这些卡调试到正常运转至少需要两个月的时间[3]。而为了缩短这两个月,英伟达投入上百亿走了20年。

芯片行业浮沉泰半个世纪,从来没有一家企业像英伟达一样,既卖硬件、也卖生态,或者按黄仁勋的话来说:“卖的是准系统”。因此,英伟达对标的也简直不是芯片领域的那些先贤们,而是苹果——另一家卖系统的公司。

从07年推出CUDA,到成为全球*的印钞厂,英伟达也并不是没有过对手。

08年那时芯片届*英特尔中止了与英伟达在集显项目上的相助,推出自己的通用处置器(GPCPU),计划在PC 领域“划江而治”。可英伟达在随后几年的产物迭代中,硬是把自家处置器推广到太空、金融、生物医疗等需要更壮大盘算能力的领域,于是10年英特尔眼看打压无望,被迫作废了自力显卡设计。

09年苹果的开发团队推出了OpenCL,希望能依附着通用性在CUDA身上分一杯羹。但OpenCL在深度学习的生态上远不如CUDA,许多学习框架要么是在CUDA公布之后,才会去支持OpenCL,要么压根不支持OpenCL。于是在深度学习上的落伍,使得OpenCL始终无法触及更高附加值的营业。

15年AlphaGo最先在围棋领域初露锋芒,宣告人工智能的时代已经来临。此时的英特尔为了遇上这最后一班车,把AMD的GPU装入自己的系统芯片内。这可是两家公司自上世纪80年月以来的首次相助。可现在CPU老大、老二 GPU老二的市值之和仅是GPU老大英伟达的1/4。

从现在看来,英伟达的护城河险些是牢不能摧。纵然有不少大客户笑里藏刀,私下里在研发自己的GPU,但依附着重大的生态和快速的迭代,这些大客户也无法撬动帝国的裂痕,特斯拉就是明证。英伟达的印钞机生意,在可见的未来还会延续。

可能*让黄仁勋萦绕乌云的地方,即是谁人客户众多、需求兴旺但H100卖不进去、但人家又在咬牙攻坚的地方——这个地方全天下只有一个。

参考资料

[1] Crunchbase

[2]'Everyone and Their Dog is Buying GPUs,' Musk Says as AI Startup Details Emerge-tom's HARDWARE

[3] Nvidia H100 GPUs: Supply and Demand-GPU Utils

[4]Supply chain shortages delay tech sector’s AI bonanza,FT

[5]AI Capacity Constraints - CoWoS and HBM Supply Chain-DYLAN PATEL, MYRON XIE, AND GERALD WONG,Semianalysis

[6] Taiwan Semiconductor: Significantly Undervalued As Chip And Package Supplier To Nvidia-Robert Castellano,Seeking Alpha

[7]芯片战争,余盛

[8]What is CUDA? Parallel programming for GPUs-Martin Heller,InfoWorld

[9] NVIDIA DGX H100 User Guide