去年9月,甲骨文公司董事长埃里森和特斯拉首席执行官马斯克邀请英伟达创始人黄仁勋在硅谷的一家豪华餐厅吃日本料理。
80岁的埃里森回忆说,吃完饭后仍然难以平静下来。“席间,埃隆(马斯克)和我在乞讨,我想用这个词来形容我们。我吃了一个小时的寿司,乞讨了一个小时。”
两位以傲慢著称的老板甘愿卑微渺小,只为获得更多“比毒品还难获得”的NVIDIA GPUs。最终,他们没有这样做。
另一家硅谷巨头思科只是用装甲车来运输新购买的NVIDIA GPU。
就像科幻作品《沙丘》将香料设定为宇宙中最重要的资源一样。今天,也可以大胆地宣布,谁掌握了GPU,谁就掌握了AI时代的命脉。
自去年以来,在加速计算和生成式人工智能的推动下,对计算能力的需求急剧增加。作为提供计算能力的核心硬件,NVIDIA GPU的需求已经“远远超过了NVIDIA所能提供的极限”。
为了获得尽可能多的GPU,全球科技圈从贵族俱乐部变成了私人饮酒时代的芝加哥。产品、流量和增长的史诗已经让位于充满贪婪、炫耀、奉承和背叛的大规模样板舞台剧。
首先,从破产边缘到80亿美元的估值
twamp
在过去的一年里,NVIDIA的GPU极度短缺,全球所有主要制造商或初创公司都在尽最大努力解决“缺芯”问题。
对于中国企业来说,GPU短缺是由政策和生产能力共同造成的。
自2022年10月起,英伟达被禁止向中国出口A100和H100高端GPU。二手交易商敏锐地发现了其中的商机。
一些企业将芯片禁令生效前购买的A100从自己的机房中取出,卖给人贩子。这些没有保修和没有保修的旧芯片没有贬值,价格从出厂时的8万多元上涨到10万多元。
A100和H100分别由NVIDIA于2020年和2022年推出,上市时间不长,因此在国内市场的库存相当有限。
此外,A100还分为80GB和40GB显存版本。视频内存越大,可以运行的神经网络就越大,训练大型语言模型的效果就越好。厂商都想买80GB内存的A100版本,导致库存不足。
因此,一些无良经销商将A100的40GB版本更改为80GB版本进行销售,许多急于购买的企业一时疏忽,只有当他们买回来时才意识到货不对板。由于这种GPU的特殊来源,被忽悠的买家根本没有办法保证质量和维权,只能吃哑巴亏。
即便如此,低配二手A100在2023年仍将供不应求。
在过去的一年里,NVIDIA中GPU的价格一度上涨到200%。A100最火的时候,网传最高成交价接近25万元。以这个价格,两个GPU可以换一辆全新的梅赛德斯-奔驰E级轿车。
二手贩子从机房卖A100赚差价,毕竟只是小打小闹。真正靠倒卖二手GPU大赚一笔的是一家名为CoreWeave的美国公司。
CoreWeave最初是一家“挖”比特币的公司。其CEO回忆说:“2016年,我们购买了第一个NVIDIA GPU,插上电源,放在曼哈顿办公室的台球桌上,然后在以太坊网络上挖到了第一枚硬币。”
在生成式人工智能流行之前,除了用作游戏显卡之外,NVIDIA GPU最有利可图和最大的应用场景是用于加密货币“挖矿”。由于GPU可以以最快的速度处理海量和简单的重复问题,因此它自然适合全天候挖掘比特币。
一开始,CoreWeave的三位创始人只是利用“挖矿”来赚取额外收入。他们的工作是管理对冲基金和家族办公室。然而,由于2016年的加密货币热潮,他们购买了越来越多的GPU,导致“华尔街的办公桌上堆满了GPU”。
截至2018年底,CoreWeave已成为北美最大的以太坊“矿场”,拥有超过5万个GPU,占整个以太坊网络的1%以上。
通过使用NVIDIA GPU作为“矿卡”,CoreWeave在加密货币领域赚到了第一桶金。然而,2018年后市场急转直下,加密货币大幅贬值,与加密货币深度绑定的CoreWeave也数次面临财务危机,几乎倒闭。
到了2019年,CoreWeave决定转型做服务。
CoreWeave加入了NVIDIA的云服务提供商计划,该计划旨在围绕NVIDIA中的芯片构建一个特殊的云基础架构。如果说NVIDIA是一家算力制造商,那么CoreWeave就相当于一家算力经销商。
2022年底,ChatGPT发布,生成式人工智能突然爆发。CoreWeave的数万个GPU成为了硬通货,因为GPU非常适合训练AI模型。它已经转型,依靠手中积累的GPU向OpenAI、微软和影响力等众多AI巨头出售计算能力。
2023年4月,CoreWeave还获得了英伟达的B轮融资。黄仁勋在业绩电话会议上指出:“大量新的GPU专业云服务提供商正在涌现,其中最著名的是CoreWeave,他们做得非常好。”
NVIDIA非常偏爱“心腹”CoreWeave。在研究机构Omdia披露的一份NVIDIA H100供应清单中,CoreWeave获得的H100数量超过了特斯拉。
正是由于NVIDIA的“偏心”,除了出售计算能力服务外,CoreWeave还以其囤积的NVIDIA芯片作为抵押,从黑石和Coatue等顶级机构获得了23亿美元的债务融资。一举将该公司从破产边缘拉至投资后估值80亿美元。
第二,承担高风险,购买走私卡。
不是每个人都有CoreWeave这样的好运气。
距离英伟达不够近的企业,尤其是中小企业,除了购买“走私芯片”别无选择。
随着全球AI模式的激烈竞争,A100已不能满足部分企业的需求,性能更强的H100日益受到追捧。
北京adsl客服电话
问题是H100太新,库存较少。没有库存,二手贩子无处可玩,走私者出现了。
走私者获取货物的渠道主要有两种:一种是在NVIDIA向美国大型企业交付货物后抢购市场上的剩余库存;二是通过在印度、新加坡、马来西亚等地注册的公司进口。
与指甲盖大小的微芯片相比,H100并不小。根据NVIDIA官方公布的尺寸,H100的整体芯片尺寸为814平方毫米,大约相当于两个手掌的大小。走私者只能把H100放在背包里,接受正式的安全检查。
一名走私者透露,由于每个国家的管制程度不同,如果将H100放在袋子里,它将被报告为普通电子设备。
问题在于服务器机架。H100需要插入服务器机架,然后才能用于训练AI模型。一台完整的AI服务器应该配备8个H100,再加上一个微型计算机的服务器机架,大致相当于一个保险箱。
面对这样一个庞然大物,靠人肉扛回去自然是不可能的。一般的做法是化整为零,拆解服务器,以蚂蚁搬家的方式送回。至于关键部件在运输过程中是否会损坏,以及如何在目的地组装回来,一切都极具风险。
H100于2022年3月首次发布时,其价格相当于约24.2万元人民币。如果我们在两年前备货一批H100,我们每台可以净赚6-9万元。
在过去的一年里,从朋友圈、小红书等社交平台,到拼多多、闲鱼等电商平台,再到各种垂直社区、垂直社群,无数号贩子玩起了“H100现货,慢手!”“稀缺H100现货,先到先得!”“原装H100,货到付款,想买的尽快入手!”标签。
如果你进一步私下交谈,这些芯片经销商会告诉你该产品没有保修或支持服务,并且至少需要6到8周才能到达,并且你需要先支付定金。如果问及发货地点和货物来源,大部分人贩子会回复称“境外发货、内地发货,都可以送到指定地点。”
据买家称,走中小中间商渠道风险很大。
首先,如果你付了定金,你可能会因为各种原因拿不到货。其次,即使能拿到货,运输过程中磕碰、泡水等情况时有发生。“在这种情况下,你只能承认自己运气不好,而且根本没有回报。”
即便如此,在各大社交平台上“H100预购从速”的帖子下,仍有成群的用户咨询价格。
第三,抢购,加钱,卖完
购买走私的GPU是不正常的。对于大公司来说,他们仍然必须与NVIDIA进行认真的交易,并从官方渠道购买A100和H100。
2022年出口禁令发布后,NVIDIA再次游说并获得了出口许可。在2023年3月1日之前,NVIDIA可以继续向中国大陆提供A100产品。
各路科技巨头迅速行动,经历了“抢购、加钱、卖光”的心路历程。
据《晚点》报道,卸任CEO后,张一鸣专注于人工智能的研究,不仅自己阅读人工智能相关论文,还与一些字节跳动高管分享了他在ChatGPT上的学习经验和想法。高层对AI的重视让字节跳动在提前抢购NVIDIA芯片方面占了先机。
GPT-4发布后不到三个月,字节爆发了,从NVIDIA订购了超过10亿美元(约71亿人民币)的GPU,交付和未交付的A100和H800共计10万块。考虑到2022年全年,中国NVIDIA数据中心GPU的销售额约为100亿元,也就是说,字节一家公司的订单几乎超过了NVIDIA过去一年在中国的总销售额。
另一家提前向NVIDIA下单并囤积GPU的巨头是阿里。据一位阿里云内部人士向《人物》透露,阿里云已成立供应链团队,其中数十人负责芯片采购,直接听命于CTO。在阿里云前CEO张勇离职之前,依桐·钱文等所有人工智能项目都直接向他汇报。
提前抢购A100和H100最直接的好处就是省钱。因为NVIDIA芯片的涨价实际上与大型号的开发密切相关。当ChatGPT在2022年刚刚发布时,制造商普遍认为生成式人工智能潜力巨大,但还不够成熟,无法大量采购人工智能芯片。
但在2023年3月14日,OpenAI发布GPT-4后,制造商和风投终于意识到了GPT的颠覆性力量,以至于各行各业迅速达成共识——做一个大模型,照顾AI芯片!
同样在GPT-4发布后,大量热钱涌入大型模型赛道以及资金充裕的大厂,NVIDIA中的芯片价格也上涨了。每个人都必须付出更多才能获得芯片。
根据《人物》杂志的描述:“美团的高管带着他们的采购团队像买白菜一样横扫数百台8卡A100服务器。虽然一台机器的价格是几十万,订单总额超过1亿,但美团的人没有丝毫犹豫,下单、签约、预付款和提货的过程很快。”
后来就算加钱也买不到AI芯片了。商业巨头和小公司的情况几乎相同。
音乐播放器哪个好
亚马逊云首席执行官亚当·利普斯基表示:“H100是最先进的…但对AWS来说,很难扯平。”
富士康董事长刘魏勇也表示,过去一年只有少数几家公司能够从英伟达获得足够的人工智能芯片来维持需求。在富士康台北年度员工大会上,刘对记者表示:“要想满足对人工智能芯片的需求,可能有必要建设一座新工厂。”
第四,吃英伟达的剩饭剩菜。
NVIDIA GPU就像香料一样,吸引着越来越多的人参与这场竞争。
在2023年拉斯维加斯的CES技术大会上,AMD首席执行官lisa su表示:“AI已经成为AMD的第一战略重点。预计AMD最新的Instinct MI300加速卡将帮助AMD占领市场。”在介绍中,MI300X芯片是一款完全超越NVIDIA H100 AI芯片的产品。
在投放市场后,MI300迅速成为AMD历史上销售额最快达到10亿美元的产品。
根据AMD的财务报告,MI300芯片的主要订单来源是微软、Meta、甲骨文、谷歌、亚马逊等大厂。它与NVIDIA H100的客户群高度重合。
难怪福克斯认为:“如果业内有任何英伟达的潜在竞争对手,那肯定包括lisa su和她负责的AMD .”
除了AMD之外,老牌芯片巨头英特尔也不想在AI时代掉队。
在过去的一年里,英特尔首席执行官帕特·基辛格多次表示:“生成式AI不仅可以在NVIDIA芯片上运行。”虽然英特尔最先进的AI加速芯片高迪2在性能上不如NVIDIA H100。不过,基辛格认为,高迪2的成本更低,具有价格优势,可以缩小与H100在性价比方面的差距。
同时,英特尔还宣布正在调整其GPU战略,整合现有的Habana Labs和数据中心GPU,并在2025年推出新平台“Falcon Shores”,以进一步增强AI芯片的设计能力。
按照基辛格的说法:“未来人工智能计算能力的竞争将非常有趣。”
甚至除了老牌芯片巨头之外,大量半导体新势力也在试图抢占英伟达的市场份额。据外媒报道,腾讯和阿里等互联网巨头对英伟达的专用芯片嗤之以鼻,转而寻求与国内GPU厂商合作。这些GPU供应商包括华为、燧原科技和摩尔线程。
最近在黄仁勋接受采访时,连AMD都不屑一顾的老黄表示:“在生产最佳人工智能芯片的竞争中,华为是英伟达非常强劲的竞争对手之一。”
燧原科技、摩尔线程等处于第二梯队的国产GPU公司也在2023年获得了数十亿元不等的大额融资。
所有这些变化都源于世界各地的企业都在寻找英伟达GPU的替代品。毕竟NVIDIA的GPU再好也只是好用而已。NVIDIA无法单独满足的市场需求足以养活一大批GPU新兴企业。
但是取代NVIDIA有多容易呢?
英伟达GPU短缺的根本原因是GPU是一种极其复杂的产品,需要世界上最先进的生产技术。目前,只有台积电能够加工和生产它,台积电的生产能力有限。
目前,H100由台积电制造,采用4纳米工艺(A100采用7纳米工艺)。从开始生产到销售给客户,H100的生产、包装和测试大约需要6个月的时间。
根据GPU Utils发布的研究报告,制约GPU产量扩大的主要瓶颈之一是所谓的CoWoS封装技术。
CoWoS可以分为“CoW”和“WoS”。“CoW(晶圆上芯片)”是指芯片堆叠;WoS(Wafer-on-Substrate)是将芯片堆叠在基板上。CoWoS是将芯片堆叠后封装在基板上,最终形成2.5D和3D形态,减少芯片的空空间,降低功耗和成本。CoWoS封装技术目前每月生产约10,000件。
台积电不仅可以为英伟达代工,而且AMD、博通、思科和Xilinx也在使用CoWoS封装技术生产芯片。
产能瓶颈限制GPU供应的问题短期内无法解决。即使AMD已经设计出了强大的MI300加速卡,它仍然需要台积电来做OEM工作。即使台积电为AMD提供NVIDIA的生产能力,这也意味着市场上的GPU总数实际上并没有增加。
与此同时,NVIDIA的真正壁垒不仅在于GPU硬件的性能,还在于其庞大的AI软件生态系统CUDA。
简单来说,决定使用效果的不仅是GPU本身的性能,还有配套软件和开发工具对应用的支持。目前,NVIDIA已经为GPU定义了通用计算编程框架CUDA,开发人员早已习惯使用CUDA的专有编程语言来制作GPU驱动的应用程序。
如果开发者想迁移到谷歌、亚马逊、微软或国产GPU,甚至需要学习一种全新的软件语言,迁移成本显然很高。
然而,后来者完全不必妄自菲薄,正如中国工程院院士、清华大学计算机科学教授郑为民所言:“今天,只要国产人工智能芯片的性能达到国外芯片的60%,如果生态做得好,客户就会满意。”
只是在达到NVIDIA中GPU性能的60%之前,似乎企业首先选择了拆旧货、走私、抢购、加钱扫货等。来缓解自己的AI芯片短缺问题。
参考资料:
英伟达惊人的上升速度也使其成为一个巨大的目标
不断变化的人工智能芯片市场将如何塑造英伟达的未来
英伟达的新中国难题:客户不想要其降级芯片
运钞车和万亿美元的价格标签:一些科技领导者如何解决芯片短缺问题
对人工智能繁荣最不可或缺的奖品的绝望追逐
英伟达是如何统治人工智能的
极客公园:NVIDIA非常强大。这只“AI计算牛”四年估值560亿。
人物:互联网巨头,有钱难买A100。
芯潮IC:天价H100流向黑市
晚点LatePost:争夺人工智能入场券:中国大公司争夺GPU