Supermicro 拓展人工智能解决方案
借助即将上市的 NVIDIA HGX H200 和配备 HBM3e 内存的 MGX Grace Hopper 平台
Supermicro 通过对 NVIDIA HGX H200 和 Grace Hopper 超级芯片的支持,拓展了 8-GPU、4-GPU 和 MGX 产品线,用于满足 LLM 应用的需求,并搭载了更快、更大容量的 HBM3e 内存。创新款 Supermicro 液冷 4U 服务器搭载了 NVIDIA HGX 8-GPU,使每个机架的计算密度翻倍,高达 80 千瓦/机架,并降低了总体拥有成本 (TCO)
/美通社/ -- Supercomputing Conference (SC23) - Supermicro, Inc.(纳斯达克股票代码:SMCI) 作为人工智能、云技术、存储和 5G/边缘整体 IT 解决方案供应商,借助对新款内置 H200 Tensor Core GPU 的 NVIDIA HGX H200 提供支持,进一步拓展其人工智能的产品线。 作为业界领先的人工智能平台,Supermicro 涵盖了 8U 和 4U 通用 GPU 系统,可随时应用 HGX H200 8-GPU 和 4-GPU。与 NVIDIA H100 Tensor Core GPU 相比,其具有近 2 倍的容量和 1.4 倍更高带宽的 HBM3e 内存。另外,Supermicro NVIDIA MGX™ 系统拥有最丰富的产品组合,并兼容即将推出的搭载 HBM3e 内存的 NVIDIA Grace Hopper 超级芯片。凭借其空前的性能、可扩展性和可靠性,Supermicro 的机架规模人工智能解决方案可在满足日益增长的模型尺寸需求的同时,快速提升高强度生成式人工智能、大语言模型 (LLM) 训练以及高性能计算应用的算力。 借助积木式架构,Supermicro 能够快速将新技术推向市场,让客户更快提升生产效率。
Supermicro 4U 8GPU H200
Supermicro 充分借助最新的 Supermicro 液冷解决方案,采用液冷 4U 系统,并基于 NVIDIA HGX H100 8-GPU 系统,推出了业界最高密度的服务器。作为业界最紧凑的高性能 GPU 服务器,其能够帮助数据中心工作人员减降低对占地面积的需求,并节约能源成本,同时提供顶级的单机架高性能人工智能训练能力。利用最高密度的 GPU 系统,组织可通过采用尖端的液冷解决方案降低其总体拥有成本 。
Supermicro 总裁兼行政总裁 Charles Liang 表示:"Supermicro 与 NVIDIA 携手设计了先进的系统,用于人工智能训练和高性能计算应用" 。"借助积木式架构,我们能够在市场上率先推出最新科技,让客户更迅速地部署生成式人工智能。我们能够利用全球化生产设施,更快地向客户交付这些新系统。新系统采用搭载了 NVIDIA® NVLink™ 和 NVSwitch™ 高速 GPU-GPU 互联技术(速度高达 900GB/s)的 NVIDIA H200 GPU,在我们的机架规模人工智能解决方案中,可为每个节点提供高达 1.1TB 的高带宽 HBM3e 内存,以实现 LLM 和生成式人工智能的最佳模型并行性能。同时,对于能提供全球最为紧凑的 NVIDIA HGX 8-GPU 液冷服务器,直接将我们的机架规模人工智能解决方案密度翻倍,并降低能源成本,为当今速度更快的数据中心实现绿色计算,我们深感兴奋。"
深入了解搭载 NVIDIA GPU 的 Supermicro 服务器
Supermicro 设计制造众多不同外形尺寸的人工智能服务器。广受欢迎的 8U 和 4U 通用 GPU 系统搭载了四通道和八通道 NVIDIA HGX H100 GPU,现已支持新款 H200 GPU,可在更短时间内完成更大规模语言模型的训练。每个 NVIDIA H200 GPU 都搭载了 141 GB 内存,带宽高达 4.8 TB/s。
"Supermicro 即将推出的服务器设计采用了 NVIDIA HGX H200,能够帮助加速生成式人工智能和高性能计算的工作负载,让企业和机构能够充分发挥其人工智能架构的能力," NVIDIA 的高性能计算、人工智能和量子运算数据中心产品解决方案总监 Dion Harris 表示,"搭载高速 HBM3e 内存的 NVIDIA H200 GPU 将能够应对各种来自工作负载的海量数据。"
此外,近期推出的 Supermicro MGX 服务器搭载了 NVIDIA GH200 Grace Hopper 超级芯片,专为整合搭载 HBM3e 内存的 NVIDIA H200 GPU 解决方案而设计。
最新的 NVIDIA GPU 使得加速当今和未来的大型语言模型 (LLM) 成为可能,这些模型具有的数千亿的参数使其能够适应更紧凑、高效的集群,从而在更短时间内训练生成式人工智能。此外,其还支持在单个系统中容纳多个更大的模型,用于实时 LLM 推理,从而服务于数百万用户的生成式人工智能。
Supermicro 将在 SC23 上展示其最新产品——配备八通道 NVIDIA HGX H100 及最新的液冷创新技术的 4U 通用 GPU 系统,用于进一步提升密度和能效,进而推动人工智能的演化。搭配 Supermicro 业界领先的 GPU 和 CUP 冷却板、专为绿色计算设计的 CDU(冷量分配单元)和 CDM(冷量分配歧管),其新款液冷 4U 通用 GPU 系统同样可搭载八通道 NVIDIA HGX H200,并且,通过 Supermicro全集成的液冷机架解决方案和我们的 L10、L11 和 L12 验证测试,其能够大幅降低数据中心的体积、削减能源成本并减少部署中的各种阻碍。
评论排行