【摘要】 Nvidia在其年度GTC会议上宣布了一系列以人工智能为重点的企业产品。包括其新硅架构Hopper的细节;第一个使用该架构的数据中心GPUH100;
Nvidia在其年度GTC会议上宣布了一系列以人工智能为重点的企业产品。包括其新硅架构Hopper的细节;第一个使用该架构的数据中心GPUH100;一个新的GraceCPU“超级芯片”;该公司声称将建立世界上最快的人工智能超级计算机模糊计划,EOS。
Nvidia从过去十年的人工智能热潮中受益匪浅,其GPU已被证明是流行的。数据密集型深度学习方法的完美匹配。Nvidia表示,随着人工智能领域数据计算需求的增加,它希望提供更多的火力。
历史上最强?HBM3首次用于英伟达H100,晶体管800亿。
特别是公司强调了变形金刚机器学习系统的普及。这种方法取得了不可思议的成果,为医疗系统提供了动力,从OpenAI的GPT-3等语言模型到Deepmind的AlphaFold。在过去的几年里,这些模型的规模呈指数级增长。例如,当OpenAI在2019年推出GPT-2时,它包含15亿个参数(或连接)。当谷歌在两年后训练类似模型时,它使用了1.6万亿个参数。
Nvidia希望提供更多的计算机。
Nvidia产品管理高级总监PareshKharya在一次新闻发布会上说:“训练这些巨型模型仍然需要几个月的时间”。“所以你解雇了一份工作,等了一个半月,看看会发生什么。缩短培训时间的一个关键挑战是,随着您在数据中心增加GPU数量,性能收入开始下降。
Nvidia表示,其新的Hopper架构将有助于改善这些困难。该架构命名为先驱计算机科学家和美国海军少将GraceHopper。与上一代芯片相比,该架构专门用于加快H100GPU变形金刚模型的训练,而新的第四代NividaNVlink可连接多达256个H100GPU,带宽比上一代高9倍。
H100GPU本身包含800亿个晶体管,是第一个支持PClegen5和使用HBM3的GPU,使内存带宽达到3TB/s。Nvidia表示,H100GPU在FP16.FP32和FP64计算方面比上一代A100快三倍,8位浮点数学快六倍。
Kharya说:“对于巨型变形金刚模型的训练,H100将提供高达9倍的性能,并在几天内完成过去几周的训练。
该公司还宣布了一款由两个CPU组成的新型数据中心CPU-GraceCPU超级芯片,通过一个新的低延迟NVLink-C2C直接连接。该芯片旨在“为巨型HPC和AI应用服务”,并可用于纯CPU系统或GPU加速服务器。它有144个Arm核心和1TB/s的内存带宽。
历史上最强?HBM3首次用于英伟达H100,晶体管800亿。
新格雷斯CPU的“超级芯片”由两个CPU连接而成。图片。Nvidia。
除硬件和基础设施新闻外,Nvidia还宣布更新其各种企业人工智能软件服务,包括Maxine(SDK提供音频和视频增强功能,旨在为虚拟化身提供动力)和Riva(SDK用于语音识别和文本转换语音)。
该公司还预测,它正在建造一台新的人工智能超级计算机,声称在部署时将是世界上最快的。这名为EOS的超级计算机将采用Hopper架构,包括约4600个H100GPU,提供18.4exaflops的“人工智能性能”。该系统将仅用于Nvidia的内部研究,该公司表示将在几个月内推出。
在过去的几年里,一些对人工智能感兴趣的公司已经为微软、特斯拉和Meta等内部研究建立或宣布了自己的内部“人工智能超级计算机”。这些系统与普通超级计算机没有直接的可比性,因为它们的运行精度较低,这使得一些公司能够通过宣布世界上最快的超级计算机快速跨越。
然而,在他的主题演讲中,Nvidia首席执行官黄仁勋确实表示,当EOS运行传统的超级计算机任务时,275petaFLOPS的计算量将比“美国最快的科学计算机”快1.4倍。“我们希望EOS成为世界上最快的人工智能计算机,”黄说。“EOS将成为我们OEM和云合作伙伴最先进的人工智能基础设施的蓝图”。