美超微发布基于全新NVIDIA HGX-2平台的超级服务器
发布时间: 2018-05-29   版权图片   请勿转载
       (NVIDIA HGX-2 平台专为新一代人工智能设计,拥有 16个Tesla V100图形处理单元(GPU),NVSwitch则利用超过 80,000个Cuda核心,为深度学习和计算工作负载,提供无与伦比的强大性能。

       美超微今天宣布,该公司成为首批采用NVIDIA®(英伟达)HGX-2云服务器平台来开发全球最强大的人工智能(AI)和高性能计算(HPC)系统的公司之一。

       美超微在2018年台湾GPU技术大会(GPU Technology Conference (GTC) Taiwan 2018)上推出白金赞助商展位。5月30日至31日,该大会在台北万豪酒店(Taipei Marriott Hotel)举行。

       美超微总裁兼首席执行官梁见后(Charles Liang)表示:“为了帮助应对快速扩大的人工智能模型的规模 -- 有些模型几周就要培训出来,美超微正在开发基于HGX-2平台、将让性能提升一倍有余的云服务器。HGX-2系统将会支持对复杂模型进行高效训练。它能够借助NVLink和NVSwitch,将16个互联Tesla V100 32GB SXM3 GPU结合到一起,作为一个统一、运算速度达到2 Petaflops(每秒千万亿次)的加速器来开展工作,内存总量达到0.5太字节,提供前所未有的强大计算能力。”

       从计算机自然语言到自动驾驶汽车,人工智能方面的快速发展已经让各行各业都发生了转变。为了支持这些能力,人工智能模型在规模上也呈爆炸性发展。在释放新的科学观点之际,高性能计算应用在复杂程度上面也呈现类似的发展态势。

       美超微基于HGX-2的系统将能为数据中心提供超集设计,加速人工智能和高性能计算在云端上的发展。在经过调整优化以后,美超微的HGX-2服务器将能为快速模型训练,提供最高水平的计算性能和内存。

       NVIDIA副总裁、加速计算部门总经理伊恩 - 巴克(Ian Buck)说:“人工智能模型在复杂程度和规模方面均呈爆炸性发展态势,因此研究人员和数据科学家需要达到新层次的GPU加速计算。HGX-2能够支持为以更快的速度培训先进人工智能处理这些巨大的新模型,同时也能在数据中心中节省大量成本、空间和能源。”



上一篇:美超微展示业内首批扩展型AI和机器学习系统
下一篇:Supermicro亮点资源节约型服务器在CEBIT 2018提供最大性能和减少电子废弃物的同时降低成本