APP下载

Nvidia CEO揭GPU新战略,更推出一系列整合GPU加速运算新产品,抢攻资料中心AI、边缘应用需求

消息来源:baojiabao.com 作者: 发布时间:2024-05-13

报价宝综合消息Nvidia CEO揭GPU新战略,更推出一系列整合GPU加速运算新产品,抢攻资料中心AI、边缘应用需求

Nvidia首席执行官黄仁勋直言:“服务器已不是资料中心的最小运算单元,资料中心本身已成为新的运算单元,”甚至他认为,下一个十年,具备有资料中心等级的运算设备,将会是一种常态,意味着,资料中心将成为最基本的运算单位。这也是Nvidia的新战略方向,也要能够提供全程端到端的资料中心运算架构方案。

图片来源: 

Nvidia

受武汉肺炎疫情冲击的影响,每年3月在美国圣荷西举办的GTC技术大会,今年首度改为线上进行,Nvidia更将主题演讲延到5月中以网络播送方式举行。而Nvidia首席执行官黄仁勋更是直接在家里开讲,不只向网络收看的资料科学家、还有众多AI开发者,发表一系列整合GPU加速运算新产品,以及新AI开发工具或应用框架,他会中更揭露该公司新的战略方向,就是要以打造全程端到端的资料中心等级GPU运算平台为目标,以便能在单一台运算设备,能实现有如资料中心规模等级的运算性能(data center-scale computing)。

一开场,黄仁勋便回顾过去25年来GPU加速运算的发展,从最早平行运算GPU芯片,CUDA运算核心软件堆叠,系统架构发展到单一整合架构。但是真要说到,近几年,促使加速运算在资料中心领域迅速受到重用的关键,他分析主要有两大原因,一个是以大量资料喂送来提高准确率的新型算法,或称为机器学习算法的出现,使得如何处理资料中心内部大量资料传递与资料运算处理,变得极为重要。而应用类型越来越庞大且复杂则是他提到的另一个原因,难以再像以前,单靠提高单台服务器本身的运算效能,就能应付处理各类型应用工作负载。

因此,黄仁勋直言:“服务器已不是资料中心的最小运算单元,资料中心本身已成为新的运算单元,”甚至他认为,下一个十年,具备有资料中心处理等级的运算设备,将会是一种常态,意味着,资料中心将成为数据运算的最基本单位。这也是Nvidia的新战略方向,未来也要能够提供全程端到端的资料中心等级的GPU运算平台方案。

由于越来越多企业走向软件定义资料中心,许多开发者都将自己应用放在上面执行,为了要能涵盖这些不同类型应用的执行,特别是AI应用,他认为,新一代资料中心等级的运算平台,不只要有高效能运算处理能力,还要能够涵盖网络、储存,甚至从上层应用到底层所有软件堆叠优化都包含在内,借此来达到最佳化的加速运算。这正是Nvidia去年决定买下Mellanox这家公司的原因,甚至不惜重砸69亿美元,为的就是补足其在资料中心内部高速网络架构和资料传输这一块拼图。前不久,Nvidia更加码买下另一家以Linux为基础核心的网络OS软件公司Cumulus,也是为了这个目的。

在完成并购后,Mellano如今已成为Nvidia的网络部门,Nvidia今日也以Mellanox品牌推出新产品,包含一台高速以太网路交换器Spectrum 4000、新一代可程式SmartNIC平台BlueField 2 等。

而在AI加速运算方面,Nvidia发布新一代Ampere架构GPU产品Tesla A100,也是首款采用台积电7奈米制程打造的GPU芯片,内含540亿颗晶体管。这代GPU提供了多达6,912个CUDA核心、外加432个Tensor Core的AI运算核心,并加入许多可用于AI运算加速与处理新技术,像是这代GPU就采用多实例GPU技术 (Multi-instance GPU),来提高在GPU上同时并行执行AI运算任务的能力,另外,对于稀疏矩阵格式运算也进行优化,可提供2倍执行加速,并支援TF 32、FP16、BFLOAT16等浮点格式,以及INT8与INT4资料类型。

根据Nvidia内部测试数据显示,当以Tesla A100加速卡执行AI模型训练时,其运算效能比起前一代Volta架构V100高出20倍之多,达到312 TFLOPS(以单精度浮点运算为基准),另在执行AI推论表现亦优于V100,可提供1,248 TOPS的运算力。就连在HPC应用,对比前一代也有近2.5倍的提升,达到19.5 TFLOPS。另以Google自然语言模型BERT进行训练与推论的话,A100则较V100分别高出6倍与7倍之多。

基于这代GPU运算加速器产品,Nvidia还推出一台整合8张Tesla A100 GPU加速卡组成的AI超级电脑系统DGX A100,效能是前一代DGX-2的两倍,可达到5 PetaFLOPS,但只需用原来一半价格,大约台币600万元就能买到,这样一台媲美AI资料中心算力级别的运算设备。目前已于全球出货。

黄仁勋还介绍了边缘AI运算用的新一代EGX融合加速器平台EGX A100,同样采用Ampere架构GPU,并整合Mellanox的martNIC网卡,一并放进该加速器平台,能用于各种产业边缘AI应用。除了可在该平台上执行预设AI模型,该公司也提供了EGX参考AI应用框架,对应到不同产业,用来协助其建立DL模型,像是针对智慧城市提供Metropolis,或是医疗保健用的Clara,还有用于5G电信的Aero,以及对话式AI的Jarvis与机器人技术的Isaac等。预计年底前出货 。

除此之外,Nvidia这次也有不少相关的AI开发工具、软件推出, 例如,最新一个多模式对话式AI服务的应用框架Jarvis就是其中一个,可让开发者用于建立ASR 、NLU、TTS、A2F等语音辨识、自然语言理解推论模型,Nvida还展示以该技术搭配3D设计协作平台Omniverse打造的一个3D聊天机器人Misty,有着水滴卡通造型的Misty,使用Audio to Face模型,来模拟人讲话动态以及嘴型,可以用自然地口吻与人交谈和互动,或回答对方的提问。另一个推出的AI简化和管理应用工具Merlin,则是可用于推荐系统所需AI模型的快速开发、建立,优化,提供更个人化的推荐。

2020-05-15 10:52:00

相关文章