“全光模块化”与“半光模块化”架构下H100中光模块与GPU数量关系 原图定位 英伟达也深入对 AI市场进行布局,发布 NVIDIA A100与 DGX H100 服务器。AI服务器快速增长将带动光模块需求迅速增加。大模型训练阶段中 A100架构中普遍采用 200G 光模块,H100 采用 400G 与 800G光模块,大幅提升市场对光模块需求的预期。根据我们在《AI训练及推理有望带动高速率光模块用量——安信通信基础设施系列报告之光模块需求测算》中的测算,我们参考 NVIDA的服务器计算单位即 SuperPOD为例分析 DGX A100和 DGX H100架构中光模块与 GPU的数量关系。测算得 DGX A100 架构中全光模块场景下 200G 光模块与 GPU 的数量关系为 6:1。 DGX H100 架构中 400G 光模块与 GPU 的比值关系为 1:1,而 800G光模块与 GPU 的比值关系为 2.5:1。推理用数据中心有别于使用胖树结构的训练用数据中心,更偏向于传统的云数据中心,东西向流量少且南北向流量多,对于带宽要求低于训练用数据中心,但是鉴于我们认为推理侧 GPU用量为训练侧 GPU用量的 4-5倍,推理侧对于光模块的带动也不容小觑。