独行穿落叶,闲坐数流萤。

授权品牌卖家

  • 16038202

    总访问

  • 24388

    文章数量

如何看油管电脑版客户端

-网络稳定有保障,低延迟不掉线 采用自研智能网络选路技术,结合业界成熟的4GQos、双通道加速技术,为上百万的游戏玩家提供稳定的游戏网络环境
立即下载

来源|芯东西

作者|心缘

编辑|漠影

NVIDIA(英伟达)创始人黄仁勋依然穿着拉风的皮衣,在自家厨房举办发布会。可以明显看到,老黄的头发更白了,也更长了。

去年NVIDIA重磅发布旗舰A100 GPU以及一系列服务器、集群、超算,轰动整个人工智能领域,如今,老黄带着一系列软硬件新品高调回归。

万万没想到,这一次,全球GPU霸主NVIDIA推出了一款基于Arm的数据中心CPU!

在宣布400亿美元收购Arm的6个月后,NVIDIA连发三款基于Arm IP打造的处理器,包括全球首款专为TB级加速计算而设计的CPU NVIDIA Grace、全新BlueField-3 DPU,以及业界首款1000TOPS算力的自动驾驶汽车SoC。

“我们每年都会发布激动人心的新品。三类芯片,逐年飞跃,一个架构。”黄仁勋说,数据中心路线图包括CPU、GPU和DPU这三类芯片,而Grace和BlueField是其中必不可少的关键组成部分。每个芯片架构历经两年的打磨***期(***期内可能出现转变),一年专注于x86平台,另一年专注于 Arm 平台。

此外,NVIDIA还公布了与亚马逊AWS、Ampere Computing、联发科和Marvell等基于Arm的CPU平台的合作伙伴关系。

在软件方面,超大规模语言模型训练与推理问答引擎Megatron、实时对话式AI平台Jarvis、AI网络安全框架Morpheus、Omniverse企业版、由GPU加速的量子电路模拟框架CuQuantum等一系列最新进展首次揭晓。

显然,面向数据中心异构计算的新天地,NVIDIA正集合软硬件技术优势,打出高调的组合拳。

此次发布会令人最印象深刻的,就是NVIDIA在助推Arm生态方面不遗余力,从自研CPU、DPU、自动驾驶处理器到GPU的合作伙伴,从云、高性能计算、边缘计算到PC,无处不Arm。

先来看下这次发布的五款硬件新品:

1、首颗数据中心CPU:落地全球最快AI超算

黄仁勋宣布的第一个重磅新品,是一款专为大规模人工智能和高性能计算应用而设计的CPU——NVIDIA Grace。

绝大多数的数据中心仍将继续使用现有的CPU,而Grace主要将用于计算领域的细分市场,预计将于2023年可供货。

由于超大规模的模型很难完全放进GPU内存,如果存储在系统内存,访问速度则会大大受限,这款CPU的问世主要即是为了解决这一瓶颈。

NVIDIA Grace以发明了世界上第一个编译器、被称为“计算机软件工程第一夫人”的先驱计算机科学家Grace Hopper命名,具体有3点创新进步:

(1)内置下一代Arm Neoverse内核,每个CPU能在SPECrate2017_int_base基准测试中单位时间运行超过300个实例;

(2)采用第四代NVIDIA NVLink,从CPU到GPU连接速度超过900GB/s,达到相当于目前服务器14倍的带宽;从CPU到CPU的速度超过600GB/s。

(3)拥有最高的内存带宽,采用的新内存LPDDR5x技术,带宽是LPDDR4的两倍,能源效率提高了10倍,能提供更多计算能力。

明年将有两台性能强大的AI超级计算机面世,都将采用NVIDIA Grace,据称其与NVIDIA GPU紧密结合,性能将比目前最先进的NVIDIA DGX系统(在x86 CPU上运行)高出10倍。

这两台AI超算中,瑞士国家计算中心(CSCS)正在打造一个算力可达20Exaflops的系统,美国洛斯阿拉莫斯国家实验室(Los Alamos National Laboratory)也将为其研究人员配备新AI超算。

2、Bluefield-3 DPU:220亿晶体管

在黄仁勋看来,负责在数据中心传输和处理数据的数据处理单元(DPU),正与CPU、GPU共同组成“未来计算的三大支柱”。

NVIDIA全新BlueField-3 DPU包含220亿个晶体管,采用16个Arm A78 CPU核心、18M IOPs弹性块存储,加密速度是上一代的4倍,并完全向下兼容BlueField-2。

BlueField-2能够卸载相当于30个CPU核的工作负载,而BlueField-3实现了10倍的加速计算性能提升,能够替代300个CPU核,以400Gbps的速率,对网络流量进行保护、卸载和加速。该处理器也是首款支持第五代PCIe总线并提供数据中心时间同步加速的DPU。

BlueField-3通过NVIDIA DOCA(集数据中心于芯片的架构)软件开发包为开发者提供一个完整、开放的软件平台,开发在BlueField DPU上开发软件定义和硬件加速的网络、存储、安全和管理等应用。DOCA已于今日发布并提供下载。

新一代BlueField-3 DPU预计将于2022年第一季度发布样品,第四代BlueFieldDPU将包含640个晶体管,算力达1000TOPS,网络速率达800Gbps。

3、车轮上的数据中心:业界率先达成1000TOPS

NVIDIA DRIVE Atlan是新一代AI自动驾驶汽车处理器,算力将达到1000TOPS,约是上一代Orin处理器的4倍,超过了绝大多数现有无人驾驶出租车的子女计算能力。

这是DRIVE平台首次集成DPU,通过Arm核为自动驾驶汽车带来数据中心级的网络,致力于应用到2025年的车型。

该SoC采用下一代GPU的体系结构、新型Arm CPU内核、新深度学***和计算机视觉加速器,并内置为先进的网络、存储和安全服务的BlueField DPU,网络速度可达400Gbps。

黄仁勋夸赞说:“Atlan集NVIDIA在AI、汽车、机器人、安全和BlueField安全数据中心领域的所有技术之大成,堪称一项技术奇迹。”

4、便捷式AI数据中心和DGX SuperPod双升级

黄仁勋还宣布升级NVIDIA专为工作组打造的“便携式AI数据中心”NVIDIADGX Station,以及NVIDIA专为密集型AI研发打造的AI数据中心产品NVIDIA DGX SuperPod。

全新DGX Station 320G借助320GB超快速HBM2e连接至4个NVIDIA A100 GPU,内存带宽达到每秒8TB。然而,仅需将其插入普通的壁装电源插座即可使用,耗电量只有1500W。

黄仁勋说,达到这种性能的CPU集群成本约为100万美元,而DGX Station仅需14.9万美元。

DGX SuperPOD使用全新80GB NVIDIA A100,将其HBM2e内存提升至90TB,实现2.2EB/s的总带宽。要实现如此的带宽,需要11000台CPU服务器,大约相当于有250个机柜的数据中心,比SuperPOD多15倍。

目前它已经升级至采用NVIDIA BlueField-2,且NVIDIA如今还为该产品提供配套的NVIDIA Base Command DGX管理和编排工具。

5、Aerial A100:5G+AI的新型边缘计算平台

黄仁勋还提到了NVIDIA的AI-on-5G计算平台,这是一款专为边缘设计、将5G和AI相结合的新型计算平台。该平台将采用NVIDIA Aerial软件开发套件与NVIDIA BlueField-2 A100,将GPU和CPU组合成“有史以来最先进的PCIE卡。”

富士通、谷歌云、Mavenir、Radisys和Wind River等合作伙伴都在开发适用于NVIDIA AI-on-5G平台的解决方案。

除了推出基于Arm的CPU外,NVIDIA还宣布一系列与Arm处理器设计商的合作进展,包括将为亚马逊AWSGraviton2 CPU提供GPU加速、为科学和AI应用开发提供支持的全新HPC开发者套件、提升边缘视频分析和安全功能、打造新一类基于Arm并搭载NVIDIA RTX GPU的新款PC等。

这些举动反映出无论是市场还是NVIDIA自身,对基于Arm的解决方案的兴趣已经超出移动领域。

1、NVIDIA GPU搭配亚马逊自研CPU赋能云服务

2021年下半年,基于亚马逊云科学(AWS)自研服务器处理器AWS Graviton2的Amazon EC2实例将与NVIDIA GPU相结合,在云端部署。

这一新组合将实现降低成本、支持更丰富的游戏串流体验、优化云上安卓游戏和人工智能推理、以更低成本提供更高的AI推理性能等优势。

黄仁勋说:“我们致力于将Arm生态系统扩展到移动和嵌入式系统以外的市场,而今日宣布的新合作伙伴,正是我们迈出的第一步。”

2、新HPC开发者套件,支持科学和AI应用开发

为了更好地支持科学和AI应用开发,面向高性能计算领域,NVIDIA推出了全新HPC开发者套件。

NVIDIA全新HPC开发者套件为超级计算机提供了一个高性能、高能效的平台,该平台结合了1个Ampere Altra CPU(包含80个Arm Neoverse核,运行频率高达3.3GHz)、双NVIDIA A100 GPU(每个GPU可提供312TFLOPS的FP16深度学***性能)、两个用于加速网络、存储和安全的NVIDIA BlueField-2 DPU。

该开发者套件包含一套NVIDIA编译器、库和工具,可用于创建HPC和AI应用,以及将其迁移到GPU加速的Arm计算系统中,将于2021年第三季度上市,多家顶尖研究机构已率先展开部署。

3、加速边缘安全功能,打造由GPU驱动的新PC

今天NVIDIA还宣布了提升边缘视频分析和安全功能、打造新一类基于Arm并搭载NVIDIA RTX GPU的新款PC等进展。

在边缘计算领域,NVIDIA正扩大与Marvell的合作,将基于Arm的OCTEON DPU与GPU相结合,加速AI工作负载,实现网络优化和安全。

在PC领域,NVIDIA与全球最大的基于Arm的SoC供应商之一联发科合作,共同打造一个采用Arm核与NVIDIA显卡、支持Chromium、Linux和NVIDIA SDK的参考平台,将GPU的性能及先进的AI、光线追踪图形等技术带入Arm PC平台。

此外,NVIDIA也正与富士通、SiPearl等其他合作伙伴共同致力于扩展Arm生态系统。

NVIDIA在去年推出了一个机架比肩AI数据中心的AI系统DGX A100、AI算力高达700 PFLOPS的集群DGX SuperPOD、千万亿级工作组服务器DGX Station A100。

面向AI应用需求,NVIDIA已经提供Megatron、Jarvis、Merlin、Maxine、Isaac、Metropolis、Clara和DRIVE、以及各种可使用TAO进行定制化的预训练模型。

今天,NVIDIA进一步强化企业计算服务,不仅推出大型语言模型训练与推理问答引擎、宣布对话式AI平台最新落地进展,还展示了其量子电路模拟框架。

1、NVIDIA EGX:扩大认证服务器生态系统

为进一步实现AI民主化,黄仁勋发布了来自顶尖制造商的新系列NVIDIA认证系统,即大容量企业级服务器,现已通过认证。

这一系统可运行NVIDIA AI Enterprise软件套件,该套件得到了全球应用最广泛的计算虚拟化平台——VMware vSphere 7的独家认证。

NVIDIA今日推出多款新系统,以扩大NVIDIA认证服务器生态系统。这些新系统配备用于主流AI和数据分析的NVIDIA A30 GPU,以及用于AI图形、虚拟工作站以及混合计算和图形工作负载的NVIDIA A10 GPU。

2、Megatron:超大型语言模型训练与推理

黄仁勋发布了用于训练Transformers的超大语言模型的N
标签

加速器

发布日期

2021年11月15日

阅读次数

491