Supermicro 推出搭载 NVIDIA HGX A100 8-GPU 的最高密度 4U 服务器和支持 20 张 A100 PCI-E GPU 的 8U SuperBlade®,以扩展产品组合
发布时间: 2020-10-05   版权图片   请勿转载

       (弹性的 4U 系统提供 6 倍 AI 训练效能和 7 倍推论工作负载容量及最高密度,而最新的 SuperBlade 可在 8U 规格中支持最多 40 张 GPU)

       美超微宣布推出支持 8 张 NVIDIA® HGX A100™ GPU 且拥有双倍 GPU 功能的全新 4U 服务器。Supermicro 供应业界最多样化的 GPU 系统产品组合,涵盖 1U、2U、4U 和 10U 的 GPU 服务器与 SuperBlade 服务器,并提供各种可自定义组态。


       Supermicro 在推出最新的 NVIDIA HGX A100™ 8-GPU 服务器后,目前供应的 GPU 系统选择为业界类型最广、规格最多样,能为边缘到云端等应用提供优异效能。整个产品组合包括 1U、2U、4U 和 10U 机架式 GPU 系统;Ultra、BigTwin™ 和嵌入式解决方案,并可选择搭载 AMD EPYC™ 和支持 Intel® Deep Learning Boost 技术的 Intel ® Xeon 处理器。

       Supermicro 执行长暨总裁 Charles Liang 表示:「Supermicro 推出采用 NVIDIA HGX™ A100 8-GPU 主板 (原代号为 Delta) 的全新 4U 系统,与目前的系统相比,可提供 6 倍 AI 训练效能和 7 倍推论工作负载容量。此外,最新发表的 NVIDIA HGX™ A100 4-GPU 主板 (原代号为 Redstone) 显示出广泛的市场接受度,让我们对接下来全球客户的回响有着高度期待。这些最新的 Supermicro 系统可针对瞬息万变市场所需的加速工作负载大幅提升整体效能,使用在包括高效能运算 (HPC)、数据分析、深度学习训练和推论等领域。」


       最新高密度的 2U 和 4U 服务器采用 Supermicro 的进阶散热设计 (包括客制化散热片和选购的水冷系统),并搭载 NVIDIA HGX A100 4-GPU和8-GPU 主板,另外还推出支持 8 张 NVIDIA A100 PCI-E GPU 的全新 4U 服务器 (即日起供货)。Supermicro 的进阶 I/O 模块 (AIOM) 规格具有高灵活性,可进一步提升网络通讯功能。AIOM 可搭配高速、低延迟的最新 PCI-E 4.0 储存与网络装置使用,支持 NVIDIA GPUDirect® RDMA 和 GPUDirect Storage,并可透过 NVIDIA Mellanox® InfiniBand 的 NVME over Fabrics (NVMe-oF) 将连续数据流馈入可扩展的多重 GPU 系统,而不会出现瓶颈。此外,Supermicro 的钛金级电源供应器能提升系统的省电效率,能源效率为业界最高的 96%,不只省下更多电费,还能为 GPU 提供备援支持。

       NVIDIA 产品管理与营销部资深总监 Paresh Kharya 表示:「Supermicro 搭载 NVIDIA A100 的系统可快速扩充至数千张 GPU,或可使用最新的多实例 GPU 技术,将每张 A100 GPU 分割成 7 张独立的 GPU 实例,以执行不同的工作。支持 TensorFloat 32 的 NVIDIA A100 Tensor Core GPU 可提供比前一代高 20 倍的运算容量,无需变更任何程序代码。」

Supermicro 搭载 HGX A100 4-GPU 的进阶 2U 设计
       此 2U 系统搭载 NVIDIA HGX A100 4-GPU 主板,并采用 Supermicro 的进阶散热片设计,在满载下仍可维持最佳的系统温度,且外型规格精简轻巧。系统可透过 NVIDIA NVLink® 执行高 GPU 点对点通讯,可安装最高 8TB 的 DDR4 3200Mhz 系统内存,具备 5 个支持 GPUDirect RDMA 的 PCI-E 4.0 I/O 插槽,还有 4 个支持 GPUDirect Storage 功能的可热插入 NVMe。

搭载 HGX A100 8-GPU 的高密度、多功能 4U 设计
       最新 4U GPU 系统搭载 NVIDIA HGX A100 8-GPU 主板,具备最多 6 个 NVMe U.2 和 2 个 NVMe M.2、10 个 PCI-E 4.0 x16 插槽,并采用 Supermicro 独家的 AIOM,能透过 GPUDirect RDMA、GPUDirect Storage 及 InfiniBand 上的 NVMe-oF 等最新技术堆栈,支持系统之间的高效 8-GPU 通讯与数据流。系统使用 NVIDIA NVLink 和 NVSwitch 技术,适合用于大规模的深度学习训练、研究或国家实验室专用的神经网络模型应用、超级运算丛集和高效能运算云端服务。

搭载 20 张 A100 PCI-E GPU 的超高密度、节能 8U SuperBlade
       这款业界最高密度的 GPU 刀锋服务器装载在 Supermicro 的 8U SuperBlade 机壳内,可支持最多 20 个节点和 40 张 GPU,每节点两张单宽 GPU,或每节点一张 NVIDIA Tensor Core A100 PCI-E GPU。在 8U 尺寸内装入 20 张 NVIDIA A100 GPU,进一步提升运算效能密度,且尺寸更小巧,能为客户降低总体拥有成本 (TCO)。为支持 GPU 优化的配置并维持高需求 AI 应用程序所需的顶尖效能和传输量,SuperBlade 提供 100% 不阻塞的 HDR 200Gb/s InfiniBand 网络基础架构,可加速深度学习并支持实时分析和决策。SuperBlade 同时具备高密度、可靠度和可升级性,为企业应用程序提供 AI 服务的完美建构基础。

业界最多样化的 GPU 加速系统产品组合
       Supermicro 持续支持各种规格的 NVIDIA 高阶 GPU,专为客户的独特使用案例情境和需求优化。1U GPU 系统可透过 NVLink 容纳最多 4 张 NVIDIA GPU,已通过包括 NEBS 第 3 级认证、5G/边缘就绪的 SYS-1029GQ 等认证。Supermicro 的 SYS-2029GP-TR 等 2U GPU 系统支持最多 6 张 NVIDIA V100 GPU,可在同一系统内容纳双 PCI-E 控制源 (Dual PCI-E Root Complex) 功能。最后,如 SYS-9029GP-TNVRT 等 10U GPU 服务器支持最多 16 张 V100 SXM3 GPU,并可搭载内建 AI 加速能力的双 Intel Xeon 可扩充处理器。

       弹性的解决方案系列采用 NVIDIA GPU 和 NVIDIA NGC™ 生态系统提供的 GPU 软件,能为各种工作提供适合的建构基础,满足不同产业组织的需求,适用于开发模型的 AI 推论、高效能运算到高阶训练等应用。



上一篇:Supermicro 优化加速运算工作负载产品组合 全面支持 NVIDIA Bluefield-2 DPU
下一篇:Supermicro率先推出通过 NEBS 第3级认证的 1U 服务器 -- 采用 2,560 个NVIDIA GPU 内核,实现 5G Edge AI 和 VR 创新设计