GB200 NVL72 ラック内部構造

48U 液冷ラック — コンポーネント配置・接続・データフロー

スケールアップ (銅・NVLink) とスケールアウト (光・Ethernet) の全体像

2026年3月 — Blackwell 世代ベース

接続構造 — スケールアップ (銅) + スケールアウト (光)

Spectrum-X スイッチラック (42U)

  • SN5600 #1〜#4 (各2U) — 64× OSFP 800G | 51.2Tb/s | Leaf/Spine
  • 管理 SW (SN2201) + パッチパネル
  • ケーブル管理 + PDU + 空きスロット

Leaf-Spine (Clos) | End-of-Row 配置
SuperPOD 比率: GPU 8ラック : SW 2-4ラック

光TRCOHR / LITE (OSFP 400G) ファイバーGLW 製造FN (EMS)

GPU ラック (48U 液冷)

  • 管理スイッチ ×2 (2U)
  • コンピュートトレイ ×10 (10U) — 4GPU + 2CPU + 4 ConnectX-7 + 2 BlueField-3
  • NVSwitch トレイ ×9 (9U) — NVSwitch ×2 / 72ポート/chip / 7.2TB/s
  • コンピュートトレイ ×8 (8U) — 4GPU + 2CPU + 4 ConnectX-7
  • 電源シェルフ ×8 (8U) 各33kW
  • CDU (4U) 250kW 液冷
  • ケーブル管理 (7U)

72GPU + 36CPU + 72NIC + 18NVSwitch | 120kW全液冷 | 48U

背面 NVLink5.0 銅

APH Paladin HD + SkewClear | 5,000本 (3.2km) | 72GPU 全結合 130TB/s | 1ホップ ~200ns | 増幅なし

前面→光TR→ファイバー→Spectrum-X (スケールアウト) / 背面→APH 銅→NVSwitch (スケールアップ)

信号経路 — GPU SerDes → 基板 → APH Paladin → SkewClear → NVSwitch (増幅なし)

前面 (光出力 ◀)

  • 光TR (OSFP) ×4 — COHR / LITE
  • ConnectX-7 #1〜#4 — NVIDIA NIC
  • BlueField-3 #1, #2 — NVIDIA DPU
  • NVMe ×5 / PCIe5

背面 (銅出力 ▶)

  • APH Paladin HD #1〜#4 — 72差動ペア 224G PAM4
  • 液冷マニホールド
  • バスバー 48V 1400A
  • NVLink 直接信号 (増幅なし)

Bianca 基板 (左)

  • B200 #1, #2 — NVLink PHY ×18 SerDes / PCIe PHY / C2C PHY / HBM3e 192GB
  • Grace CPU #1 — ARM 72コア / LPDDR5x 512GB
  • C2C 直結 900GB/s

Bianca 基板 (右)

  • B200 #3, #4 — 同左
  • Grace CPU #2 — 同左
  • C2C 直結 900GB/s

前面: ConnectX-7→光TR (COHR/LITE)→ファイバー (GLW)→Spectrum-X SN5600 | 背面: GPU→基板→APH Paladin→SkewClear 銅→NVSwitch | HBM3e: MU/SNDK
18トレイ = 72GPU + 36CPU + 72NIC + 72光TR + 36DPU | NVLink 1,296 全結合 | OSFP 72本

NVSwitch トレイ (1U × 9台) — ラック中段

前面 (ポートなし)

前面パネル — LED のみ。アクセスはメンテ用途。

背面 (コネクタ出口)

銅ケーブル → Compute トレイ背面

NVSwitch ASIC ×2 / トレイ

  • NVLink 5.0 ポート ×72
  • 各 100GB/s 双方向
  • 合計 7.2 TB/s
  • クロスバースイッチ — 全ポート↔全ポート、非ブロッキング

Flyover ケーブル (トレイ内) = ASIC ↔ 背面 APH コネクタ直結

APH Paladin HD ×4 / トレイ

  • 36差動ペア × 224G PAM4
  • ブラインドメイト

9トレイ合計: NVSwitch 18チップ / NVLinkポート 1,296 = GPU の 1,296 ポート (72×18) と完全一致

APH 独占ポイント

  • Paladin HD 224G コネクタ ×4/トレイ
  • SkewClear EXD 銅ケーブル 5,000 本+
  • NVLink カートリッジ 4基 (背面 7U に収容)
  • 背面のみにコネクタ集約 → 前面はメンテナンスアクセス用 → ブラインドメイトで工具不要

電源シェルフ (1U × 8台) — ラック下段

1台の構成 — PSU モジュール ×6

各 5.5 kW / AC→48V DC 変換 / ホットスワップ対応
6 × 5.5kW = 33kW / シェルフ | 8シェルフ × 33kW = 264kW 供給能力 (120kW 実消費、4+4 冗長)

給電アーキテクチャ

  • 規格: OCP ORv3 HPR (High Power Rack)
  • 入力: AC → 48V DC 変換
  • 配電: バスバー (ラック背面縦走) → 各トレイにブラインドメイト接続 → トレイ挿入で自動電源接続
  • 冗長: 8シェルフ = 4基稼働 + 4基冗長 / シェルフ単位でホットスワップ

バスバー電源分配

  • ラック背面を縦に走る銅バスバー
  • 1,400A 大電流対応
  • 各トレイにブラインドメイト接続 → トレイ挿入で自動電源接続 → ケーブル配線不要
  • 48V DC 配電で損失最小化 (従来12V比で電流1/4・損失1/16)

CDU — 冷却分配ユニット (4U × 1台)

構成

  • ポンプ #1 (プライマリ) / #2 (冗長) — 冷媒循環、ホットスワップ
  • 熱交換器 — ラック内冷媒ループ ↔ 施設冷水ループ / 250kW 熱処理能力
  • 冗長 PSU 内蔵 / 管理インターフェース

施設冷水 (入力) → CDU → 温水戻り (出力)

冷却フロー

  • 施設冷水 (Facility Water) — DC 冷却塔から供給
  • CDU (熱交換 + ポンプ循環)
  • ラック内マニホールド (両サイド縦走)
  • コールドプレート (Direct-to-Chip) — GPU/CPU/NVSwitch に直接接触

全液冷・ファンレス

Direct-to-Chip 液冷のポイント

  • GPU・CPU・NVSwitch 全チップに冷媒が直接接触 (コールドプレート経由) → ファンレス・静音
  • 120kW/ラック = エアコン冷却の限界 (30kW) の4倍 → 液冷が唯一の選択肢
  • Supermicro CDU 4U = ラック内で完結するセルフコンテインド型
  • デュアルポンプ冗長 + ホットスワップ = 冷却停止なしでメンテナンス
  • 施設冷水温度: 35-45°C 対応 (従来冷却塔で十分、チラー不要)

管理スイッチ (2U) ・ ケーブル管理 (7U)

管理スイッチ ×2 (最上部 2U)

  • Spectrum 管理スイッチ #1, #2 (各1U) — 48× 1GbE RJ45 + 4× 100GbE QSFP28
  • 用途: テレメトリ・温度監視・ファームウェア更新
  • Spectrum-X (スケールアウト) とは別物

ケーブル管理 (背面 7U)

  • NVLink カートリッジ #1〜#4 — 各 ~1,250本 銅ケーブル収容
  • APH SkewClear EXD twinax | Paladin HD ブラインドメイト両端

4基合計: 5,000本+ (総延長3.2km)。残りUはマニホールド配管等。

48U 完全内訳

管理スイッチ2U
コンピュートトレイ18U (10+8)
NVSwitch トレイ9U
電源シェルフ8U
CDU4U
ケーブル管理7U
合計48U

ラック構造の特徴

  • 全コンポーネントがブラインドメイト接続 → 電源・冷媒・NVLink 全て工具不要で自動接続
  • 構造鉄骨 100lbs+ (嵌合力 6,000lbs 対応) → 5,000本のケーブル接続に耐える剛性
  • 全液冷・ファンレス (空冷パーツゼロ) → 120kW の排熱を処理

データフロー全体像 — スケールアップ vs スケールアウト

スケールアップ (ラック内 72GPU 間) — 全て銅

GPU A → NVLink 5.0 (18本, 1.8TB/s) → APH Paladin 銅コネクタ → SkewClear 銅ケーブル → NVSwitch (1ホップ) → 銅ケーブル → GPU B

  • 帯域: 1.8 TB/s / GPU | レイテンシ: ~200ns | トポロジ: 全結合 (72GPU = 1つの巨大GPU)
  • 関連銘柄: APH (Paladin コネクタ + SkewClear ケーブル独占) / MU・SNDK (HBM3e)

スケールアウト (ラック間) — 光ファイバー

GPU → PCIe Gen5 → ConnectX-7 NIC (前面 OSFP) → 光トランシーバー → 光ファイバー → Spectrum-X SN5600 (別ラック) → 光 → 別ラックの NIC → GPU

  • 帯域: 400 Gb/s / NIC ポート | プロトコル: RoCE / InfiniBand | トポロジ: Leaf-Spine
  • 関連銘柄: COHR/LITE (TR) / FN (製造受託) / GLW (光ファイバー) / APH (一部コネクタ)
  • 接続数: 18トレイ × 4 NIC = 72本 / ラック

スケールアップ (銅 1.8TB/s) はスケールアウト (光 400Gb/s = 0.05TB/s) の 36倍高速 → テンソル並列はラック内、パイプライン並列はラック間。

世代別 投資テーマの変化

APH (Amphenol) — 全世代で恩恵、形態が変化

  • BW: Paladin HD + SkewClear 銅 5,000本/ラック独占
  • VR: B2B コネクタ (ミッドプレーン) ケーブル消滅 → コネクタ単価UP + NVL576 新需要
  • RU+: ミッドプレーン継続 + NVL576 ラック間銅。銅の地位は盤石

LITE / COHR — Pluggable→CPO で明暗

  • BW: Pluggable 光TR (400G) → COHR/LITE 両方が供給。市場拡大期
  • VR: CPO 移行 → LITE の ELS が主要候補。COHR は Pluggable 在庫リスク
  • RU+: 全面 CPO → LITE 成長加速 (シリコンフォトニクス)。COHR: InP 劣勢リスク

MU / SNDK — HBM が継続成長

  • Blackwell: HBM3e 192GB/GPU
  • Vera Rubin: HBM4 → 容量・帯域UP
  • GPU 増 = HBM 増。全世代で安定成長

GLW / FN — インフラ層は安定

  • GLW: 光ファイバーは全世代で必須
  • FN: TR 製造受託 → CPO モジュールへ移行
  • DC 増設が続く限り安定成長

結論: APH = 全世代堅い / LITE = CPO で加速 / COHR = 移行リスク / MU・GLW = 安定成長

接続構造の世代変化 — スケールアップ/アウトの進化

Blackwell (2024-25)Vera Rubin (2026)Rubin Ultra+ (2027+)
スケールアップ (銅)
NVLink帯域5.0 / 1.8TB/s/GPU6.0 / 3.6TB/s/GPU (2x)7→8 / 7+TB/s 推定
NVSwitch9トレイ×2 = 18チップ9トレイ×4 = 36チップ (2x)第7→第8世代
APHPaladin HD + SkewClear 銅5,000本B2B コネクタ (基板直結) ケーブル0本独占継続 + NVL576 ラック間銅
組立~90分 (手作業結線)~5分 (18倍高速)さらに短縮
スケールアウト (光)
NICConnectX-7 (OSFP 400G)ConnectX-8 + CPOConnectX-8→10 (3.2Tb/s)
光形態Pluggable TR (COHR/LITE)CPO 移行 (LITE ELS 候補)全面 CPO (Pluggable 廃止)
SWSpectrum-X SN5600Spectrum-X PhotonicsSpectrum-7 (204T)

ケーブル 5,000本 → ミッドプレーン (0本) → 8ラック統合 | Pluggable 光 → CPO → 全面 CPO | APH は銅で全世代独占

信号経路の世代変化 — GPU→NVSwitch 経路の進化

Blackwell (2024-25)

B200 GPU
NVLink PHY
×18 SerDes
基板配線
(Bianca PCB)
APH
Paladin HD
72差動 224G PAM4
APH
SkewClear 銅
5,000本
NVSwitch
×2/トレイ
72ポート 7.2TB/s

増幅なし = APH 独占の根拠 / ~200ns 1ホップ / 総延長3.2km

前面: ConnectX-7→光TR(COHR/LITE)→GLW→Spectrum-X | 背面: GPU→基板→APH→SkewClear→NVSwitch

Vera Rubin (2026)

R100 GPU
NVLink PHY
×36 SerDes 3.6TB/s
PCB
ミッドプレーン
(ケーブルなし)
APH
B2B コネクタ
基板直結
NVSwitch
×4/トレイ
帯域2倍 36チップ

ケーブル完全廃止 / 組立 90分→5分 / ミッドプレーンで信号完結 / APH: B2B コネクタに移行

前面: ConnectX-8→CPO 光エンジン (LITE ELS)→GLW→Spectrum-X Photonics

最大の変化: 5,000本の銅ケーブル (3.2km) が消滅 → PCB ミッドプレーン1枚に統合 / APH は形態が変化するが独占は継続 / 光は Pluggable→CPO で LITE 有利

NVSwitch トレイの世代変化 — チップ数・接続方式の進化

Blackwell — NVSwitchトレイ (1U)

  • NVSwitch #1, #2 — NVLink 5.0 / 72ポート / 7.2 TB/s / クロスバー非ブロッキング
  • 接続: APH Paladin HD ×4 (背面) → SkewClear 銅 → ケーブルカートリッジ(7U) → コンピュートトレイ
  • Flyover ケーブル (トレイ内) = ASIC↔背面 APH コネクタ直結
  • 9トレイ合計: 18チップ / 1,296ポート / 銅 5,000本

Vera Rubin — NVSwitchトレイ (1U)

  • NVSwitch #1〜#4 — NVLink 6.0 / 帯域2倍
  • 接続: APH B2B コネクタ → PCB ミッドプレーン直結
  • ケーブル完全廃止 (0本)
  • ケーブルカートリッジ 7U 不要
  • 9トレイ合計: 36チップ (2倍) / ポート数2倍
項目BlackwellVera RubinRubin Ultra+
NVSwitch/トレイ2チップ4チップ (2x)次世代 ASIC
合計チップ数18 (9×2)36 (9×4)第7→第8世代
GPU 間接続銅ケーブル 5,000本PCB ミッドプレーン (0本)ミッドプレーン継続
APH コネクタPaladin HD + SkewClearB2B コネクタ (基板直結)独占継続
ケーブル管理カートリッジ 4基 (7U)不要 (7U 空き)不要
組立時間~90分~5分 (18倍)さらに短縮

電源・冷却の世代変化 — 消費電力増大と冷却技術の進化

Blackwell (2024-25)Vera Rubin (2026)Rubin Ultra+ (2027+)
電源
消費電力120 kW/ラック150+ kW (推定)200+ kW (推定)
シェルフ8台×6 モジュール×5.5kW (AC→48V DC)大容量化NVL576 = 8ラック 1.6MW+ / SMR 検討段階
供給能力264kW (4+4 冗長)増強次世代 PSU 規格
配電バスバー 48V 1,400A / OCP ORv3 HPR48V DC 継続 / 冗長維持電力効率がボトルネック化
冷却
方式Direct-to-Chip 液冷D2C 強化浸漬液冷への移行?
CDU4U×1台 (250kW) デュアルポンプ300kW+? 流量・ポンプUPD2C の限界域 → 浸漬
特徴コールドプレート直接接触 / 全液冷ファンレスNVSwitch 4チップ化で発熱増 / 7U 廃止で配管余裕サーバー全体を冷媒に浸漬 / DC 設計の根本変化
施設冷水35-45°C 対応要件変化の可能性Vertiv 等 冷却インフラ需要増

電力 120kW→150kW+→200kW+ | 冷却 D2C→強化→浸漬 | 電力・冷却が DC 建設の最大制約 → インフラ投資 (VRT, 電力会社) に直結

ケーブル管理・ラック構成の世代変化 — 7U の行方

Blackwell — ケーブル管理 (背面 7U)

  • NVLink カートリッジ #1〜#4 — 銅 ~1,250本
  • 4基合計: 5,000本+ / 総延長 3.2km
  • APH SkewClear EXD twinax / Paladin HD コネクタ両端
  • 背面7U占有 = ラックの15% / 組立ボトルネック

Vera Rubin — ケーブル管理不要

7U 空き (再配分可能)

  • ミッドプレーンに統合 → ケーブルカートリッジ廃止
  • 7U 分の空間が解放
  • 活用候補: 追加 NVSwitch / 冷却配管拡張 / 追加 GPU / ストレージ
項目BlackwellVera Rubin
管理スイッチ2U2U
コンピュートトレイ18U (10+8)18U
NVSwitch トレイ9U9U (×4 チップ)
電源シェルフ8U8U (大容量化)
CDU4U4U (強化)
ケーブル管理7U空きスロット 7U (再配分)

サーバーファン需要の変化 — 液冷移行の影響

NVL72 (120kW) はファンレス全液冷。だがサーバーファン市場は「まだ成長中」 — 構造変化の全体像。

市場規模の推移

  • サーバーファン市場: 2022 ~$12億 / 2024 $18.6億 (AI で過去最高) / 2025 $19.7億 / 2035 予測 $35億 (CAGR 5.9%)
  • DC 液冷市場 (比較): 2026 $66億 → 2033 $384億 (CAGR 28.7%、ファンの5倍)

液冷の浸透率

DC 全体AI 訓練サーバー
202410%15%
202520-33%50%+
202630%74%
2027+33%+80%

DC 全体の70%はまだ空冷 (2026)。液冷急増は AI のみ。汎用・ストレージ・NW は空冷継続。

ファン需要の時系列変化

  • 〜2023年 (液冷前): サーバー1台にファン6〜18個。ほぼ全サーバー空冷。ファン=必須部品
  • 2024-2025年 (転換期): NVL72 等液冷 AI サーバー本格出荷 → このラックからはファンが消える。ただし全 DC 出荷の90%→70%はまだ空冷。市場はまだ成長 (AI 以外が補う)
  • 2026-2027年 (液冷拡大期): AI 訓練サーバーの74-80%が液冷化 → AI ラックのファン需要はほぼゼロに。汎用は引き続き空冷。市場成長率が鈍化し始める
  • 2028-2030年 (分岐点): 液冷が DC 全体の33%超。空冷サーバー絶対数も頭打ち → ファン市場は横ばい〜微減

市場規模: $18-20億 (2024-25) | AI 向けは2024年から減少開始 | 全体は2027-28年から成長鈍化 | 完全には消えない (汎用・施設冷却で残る)

    1 / 15
    NVL72 ラック構造 · ESC=目次