Supermicro的新型扩展人工智能和机器学习系统,配备8个带NVLink GPU的NVIDIA Tesla V100,可提供卓越的性能和系统密度
发布时间: 2018-03-27   版权图片   请勿转载
       在GTC 2018展会上,Supermicro GPU优化系统满足市场对深度学习,人工智能和大数据分析应用10倍增长的需求,并提供一流的功能,包括NVIDIA Tesla V100 32GB NVLink和最大GPU密度。

       位于圣何塞McEnery会议中心的GPU技术大会上,美超微于3月27日在会上展示了业界最广泛的GPU服务器平台支持NVIDIA®Tesla®V100 PCI-E和V100 SXM2 GPU加速器,展位215至3月29日。


       为了最大程度地加速高度并行应用,如人工智能(AI),深度学习,自动驾驶汽车,智能城市,医疗保健,大数据,HPC,虚拟现实等等,Supermicro的新型4U系统采用下一代NVIDIA NVLink™互连技术针对最高性能进行了优化。SuperServer 4029GP-TVRT支持8个NVIDIA Tesla V100 32GB SXM2 GPU加速器,可为群集和超大规模应用提供最大的GPU到GPU带宽。该系统将最新的NVIDIA NVLink技术与PCI-E 3.0带宽的五倍结合在一起,具有独立的GPU和CPU散热区,以确保在最苛刻的工作负载下实现无与伦比的性能和稳定性。

       “在最初的内部基准测试中,我们的4029GP-TVRT系统能够在ResNet-50上每秒获得5,188个图像,在InceptionV3工作负载上每秒获得3,709个图像,”Supermicro总裁兼首席执行官Charles Liang说。“使用GPU Direct RDMA扩展到多个系统时,我们也看到非常令人印象深刻的几乎线性的性能提升。凭借我们最新的创新技术,将采用新一代NVIDIA V100 32GB PCI-E和V100 32GB SXM2 GPU的2X内存与采用新一代NVLink的性能优化的1U和4U系统相结合,我们的客户可加速其应用和创新,帮助解决全球最复杂和挑战性的问题。“

       “NVIDIA®(英伟达™)加速计算部门副总裁兼总经理Ian Buck表示:”通过为NVIDIA Tesla V100 32GB数据中心GPU优化的Supermicro高密度服务器,企业客户将受益于更高的计算效率。“使用V100的两倍内存可将复杂的深度学习和科学应用程序的速度提高多达50%,并通过减少对内存进行优化的需求来提高开发人员的生产力。”

       Preferred Networks首席技术官Ryosuke Okuta表示:“在首选网络公司,我们继续利用Supermicro的高性能4U GPU服务器为我们的私人超级计算机成功供电。“这些最先进的系统已经在为我们目前的超级计算机应用提供动力,而且我们已经开始部署Supermicro优化的新型4U GPU系统,这些系统装载了NVIDIA Tesla V100 32GB GPU,以推动我们即将推出的新型私人超级计算机。”

       Supermicro还展示了经过性能优化的4U SuperServer 4029GR-TRT2系统,该系统可支持多达10个PCI-E NVIDIA Tesla V100加速器,采用Supermicro创新的GPU优化单根复合PCI-E设计,显着改善GPU对等网络对等通信性能。为了获得更高的密度,SuperServer 1029GQ-TRT仅支持1U机架空间内的四个NVIDIA Tesla V100 PCI-E GPU加速器,而新的SuperServer 1029GQ-TVRT则支持四个NVIDIA 1T的Tesla V100 SXM2 32GB GPU加速器。  

       随着大数据分析和机器学习,最新NVIDIA GPU架构以及改进的机器学习算法的融合,深度学习应用需要多个GPU的处理能力,这些GPU必须高效且有效地进行通信才能扩展GPU网络。Supermicro的单根GPU系统允许多个NVIDIA GPU进行有效通信,以最大限度地减少延迟,并最大限度地提高吞吐量(以NCCL P2PBandwidthTest衡量)。
上一篇:Supermicro在2018年云博览会上推出创新的新资源节省型数据中心解决方案
下一篇:Supermicro针对新型第八代英特尔®酷睿™处理器优化的物联网嵌入式解决方案率先推向市场