AI 英伟达 MGX概念
作者:微信文章1、MGX 架构概述
MGX (Modular GPU Acceleration Platform) 是 NVIDIA 推出的模块化服务器参考架构,专为 AI、高性能计算 (HPC) 和数字孪生应用设计,定位为 "高密度、高能效的 AI 算力集群基石"。
MGX 机架围绕两大核心组件构建:
组件功能特点计算托盘 (Compute Tray)CPU+GPU 计算单元2U 高度,集成 Grace CPU+Blackwell GPU 组合,提供核心算力NVLink 交换机托盘 (Switch Tray)GPU 间高速互联提供 GPU-GPU 直接通信,带宽达 TB 级,延迟低于传统 PCIe2、支撑基础设施
MGX 54V 汇流排:机架内高效电力分配,支持 1400A 大电流MGX 800V HVDC 架构:直接将 800V 直流电引入机架,提高效率,降低功耗33kW 电源架:为系统提供充足电力,支持高密度计算液冷冷板 (Coldplate):直接为 GPU 散热,效率远超风冷44RU 液冷歧管 (Manifold):背部 "冷热分离" 双通道设计,支持 120kW / 机架散热快速断开接头 (UQD/NVQD):便于维护,减少停机时间
.3、模块化设计的革命性价值
研发成本降低 200-400 万美元 / 平台,一次性认证整个 NVIDIA 软件栈部署周期从 12 个月缩短至 90 天,工厂预集成约 80% 组件灵活扩展:从 8GPU 节点无缝扩展到 144GPU 机架单机架支持 72 个 Blackwell GPU,构建统一计算域液冷技术使 PUE 降至 1.05 以下,比风冷节省 50% 能耗94% 电源效率,大幅降低运营成本NVLink C2C 互连:CPU-GPU 内存共享,带宽达 32TB/s,比 PCIe Gen5 快 7 倍
4、MGX 已吸引超过 200 家生态合作伙伴,包括:
系统制造商:Supermicro、QCT、微星、Chenbro 等液冷解决方案:英维克 (首个通过 MGX 认证的液冷连接器)存储提供商:美光等,支持 1U 空间部署 8 块 NVMe SSD软件生态:全面支持 CUDA-X、AI Enterprise、Omniverse 等 NVIDIA 软件栈
页:
[1]