英伟达发布下一代超算芯片 HGX H200 GPU,配备 141 GB HBM3e 内存


IT之家11月13日报道,英伟达今天发布了下一代人工智能超级计算机芯片,该芯片将在深度学习和大规模语言模型(LLM)中发挥重要作用,如OpenAI的GPT-4。与上一代相比,新芯片有了显著的飞跃,将用于数据中心和超级计算机,以处理天气和气候预测、药物发现、量子计算等任务。

此次发布的重点产品是基于英伟达“Hopper”架构的HGX H200 GPU,它是H100 GPU的继任者,也是首款使用HBM3e内存的芯片。这种内存速度更快,容量更大,更适合大语言模型。英伟达表示:“在HBM3e的帮助下,英伟达H200以每秒4.8 TB的速度提供了141GB的内存,几乎是A100的两倍,带宽增加了2.4倍。”

人工智能方面,英伟达表示,HGX H200在Llama 2(7000亿参数LLM)上的推理速度是H100的两倍。HGX H200将提供4路和8路配置,与H100系统中的软件和硬件兼容。它将适用于每一种类型的数据中心(本地、云、混合云和边缘),由亚马逊Web服务、谷歌云、微软Azure和甲骨文云基础设施部署,并将于2024年第二季度推出。

英伟达此次发布的另一款重点产品是GH200格蕾丝·赫柏“超级芯片”,通过公司的NVLink-C2C互联,将HGX H200 GPU和基于Arm的英伟达Grace CPU结合在一起。官方称,它是为超级计算机设计的,允许“科学家和研究人员通过用TB级数据加速复杂的AI和HPC应用程序的运行,来解决世界上最具挑战性的问题”。

GH200将用于“全球研究中心、系统制造商和云提供商的40多台AI超级计算机”,包括戴尔、Eviden、惠普企业(HPE)、联想、QCT和超微。值得注意的是,HPE的克雷EX2500超级计算机将使用四路GH200,可扩展至数万个格蕾丝·赫柏超级芯片节点。

也许最大的格蕾丝·赫柏超级计算机是德国尤利奇工厂的木星,它将在2024年安装后成为“世界上最强大的AI系统”。它采用液冷架构,其增强模块由近24000个NVIDIA GH200超级芯片组成,通过NVIDIA Quantum-2 InfiniBand网络平台互联。

英伟达表示,木星将有助于在许多领域取得科学突破,包括气候和天气预测,生成高分辨率的气候和天气模拟,并进行交互式可视化。它还将用于药物发现、量子计算和工业工程,其中许多都使用定制的英伟达软件解决方案,这简化了开发,但也使超级计算团队依赖英伟达硬件。

IT之家指出,上个季度,英伟达仅在人工智能和数据中心方面就实现了创纪录的103.2亿美元的收入(总收入为135.1亿美元),比一年前增长了171%。Nvidia无疑希望新的GPU和超级芯片能够帮助它延续这一趋势。