图表43Omdia测算2023Q3A100和H100出货量约为500K 原图定位 降低核心芯片供应风险,AI 巨头积极布局自研芯片。目前 Nvidia 的 GPU 因算力军备竞赛而需求大增,但其产能受限于 HBM、CoWos 封装等的供应,因此 H100 芯片存在大量缺口,各 AI 巨头能分到的 GPU 数量有限,根据 GPU Utils 预测,H100 的短缺情况或将持续至 2024 年。在此背景下 H100 的售价已达 3.5 万美元左右,对应毛利率水平已超过90%。Google 通过自研 TPU,可降低算力核心芯片的供应风险,同时减少算力部署成本。除 Google 以外,众多 AI 巨头公司也都在布局自研 AI 算力芯片,比如 Amazon 的 Trainium和 Inferentia、微软的 Athena、META 的 MTIA 等。