インフラストラクチャ・アーキテクチャ

NVIDIA GB200 NVL72インフラとスケーラブルユニット向けMPO-8 APCケーブル配線

8つのラックが9,216本のアクティブ光ファイバーに集約されるBlackwell Scalable Unit (SU)のケーブル配線アーキテクチャを解体します。

DGX GB200 Scalable Unit (SU)は、データセンターアーキテクチャの大きな転換点を示しています。SUは、9,216本のアクティブ光ファイバーで相互接続された、統一された576個のGPUエンティティです。ScaleFibreは、この密度を管理するために必要な精密終端トランクを提供します。

4つの物理SuperPODファブリック

NVIDIAは、GPUトラフィックを分離するためにSUを個別の物理層に分割します。

MN-NVL (NVLink 5)

スケールアップ

72個のGPUを1.8 TB/sで接続する「内部」ラックネットワーク。

  • 光ファイバーなし
  • パッシブ銅バックプレーン
  • ブラインドメイトコネクタ

コンピュートInfiniBand

スケールアウト

大規模なマルチノードトレーニングのための主要な「East-West」ファブリック。

  • SUあたり4,608本のアクティブファイバー
  • レール最適化トポロジー
  • Quantum-3/Quantum-2

ストレージ&インバンド

フロントエンド

高速データ取り込みとプロビジョニングのためのEthernetベースのファブリック。

  • 5:3のブロッキングファクター
  • BlueField-3 DPUオフロード
  • VXLAN/RoCEサポート

OOB管理

コントロールプレーン

ハードウェアテレメトリー、BMC、PDU管理のための分離されたネットワーク。

  • RJ45/Cat6銅線
  • SN2201スイッチティア
  • 物理的なエアギャップセキュリティ

エクサスケールSUメトリクス

8ラックのScalable Unitは、NVIDIA AI Factoryの基本的な構成要素です。

9,216

SUあたりアクティブファイバー数

4,608

コンピュート専用ストランド数

5:3

ストレージブロッキング比

400G/800G

ネイティブポート速度

SU接続の3つのレベル

1
レベルA:サーバー・ツー・リーフ

NVL72ノードをリーフスイッチに接続するために、高密度ファイバートランクまたはジャンパーを使用して、ラックあたり1,152本のファイバーを配線します。

2
レベルB:リーフ・ツー・スパイン

コンピュート用の1対1のノンブロッキングリンクを使用して、SU内のレールアラインされたトラフィックを集約します。

3
レベルC:スパイン・ツー・コア

SUを超えて集中型コアエリアに接続するために、高密度トランクを使用します。

従来のパッチング(ポイント・ツー・ポイント)

  • 手動の複雑さ:8ラックブロックごとに9,216本の個別のパッチコードが必要。
  • エアフローの妨害:密なケーブル束が液冷排気経路を塞ぐ。
  • リスクプロファイル:手動の1対1パッチング中に「交差したレール」が発生する可能性が高い。
  • 展開時間:SUごとに手動ルーティングとラベリングに115時間以上。

モジュラー式高密度ファイバートランキング

  • プラグアンドプレイ:数千本のファイバーを、事前終端された128F/144F/256F/288F/576Fの専用トランクに統合。
  • 熱最適化:小径ケーブルにより、高密度ラックでのエアフローを最大化。
  • 経路効率:ラックあたり1,152本のアクティブファイバーを高密度MPOバックボーンに統合。
  • 設置プロファイル:工場でテスト済みの事前終端済みアセンブリによる迅速な展開。

アクティブファイバーの成長:ノードからフルSuperPODまで

ケーブル配線の複雑さ
SUあたり9,216本のアクティブファイバーには、エアフローを妨げる「ケーブルカオス」を避けるためにモジュラー式高密度ファイバートランクが必要です。

可視化されたScalable Unit

8ラックコンピュートブロック
8ラックコンピュートブロック

NVIDIA GB200 SU (Scalable Unit) は、72個のGPUを備えたDGX GB200 NVL72システムを収容する8つのラックで構成されています。

高密度ファイバートランクの分配
高密度ファイバートランクの分配

数千本のラックファイバーを高密度トランクに統合し、エアフローを確保し、迅速な設置と最小限の経路使用を実現します。

液冷
液冷

液冷コールドプレートがトレイ環境を安定させ、OSFPトランシーバーがヒートシンクを介して効果的に熱を放出できるようにします。

Technical FAQ

+ 9,216本のファイバーを持つSUの数をどのように管理するのですか?
階層化されたケーブル配線構造を使用します。高密度ファイバートランクは、数千本の個別のMPOパッチコードに代わり、物理的な体積を減らし、冷却の妨げを防ぎます。
+ ストレージファブリックにおける「5:3ブロッキングファクター」とは何ですか?
ノンブロッキング(1:1)のコンピュートファブリックとは異なり、ストレージネットワークは意図的にオーバーサブスクライブされています。これにより、ファイバーコストと複雑さを削減しながら、ノードあたり40GB/sのストレージ要件を満たします。展開にはしばしばNVIDIA互換MPOパッチケーブルが利用されます。
+ 内部NVLinkファブリックがファイバーフリーなのはなぜですか?
NVIDIAは、NVL72ラック内にパッシブ銅バックプレーンとケーブルカートリッジを利用しています。これにより、数千本の光トランシーバーとファイバーが不要になり、消費電力と遅延が大幅に削減されます。光ファイバーはスケールアウトコンピュートファブリックのために予約されています。
+ 16個のScalable Unitにスケールアップするとどうなりますか?
16 SUスケール(9,216 GPU)では、コンピュートファブリック単独のアクティブファイバー総数は18,432本に達します。この密度を管理するには、高密度光ファイバーと集中型コアグループスイッチングアーキテクチャのために特別に設計された高密度ハウジングが必要です。
+ 標準のMPO-12ではなくMPO-8が使用されるのはなぜですか?
最新の400G NDRおよび800G XDRトランシーバーは、4レーンまたは8レーンの並列光学系を使用します。8ファイバーMPOアラインメントは、4x Txおよび4x Rx構成に完全に一致します。8ファイバーアクティブMPOトランクを使用することで、クラスタファブリック内の「ダーク」または無駄なファイバーを排除します。
+ APC(アングルド物理接触)研磨の重要性は何ですか?
高速100G-PAM4シグナリングは、後方反射に極めて敏感です。APCコネクタの8度のアングルは、反射光がファイバークラッディングに吸収されることを保証し、エラーフリーのAIトレーニングに必要な高い光リターンロス(ORL)を維持します。
+ ファイバー密度は液冷AIホールにどのような影響を与えますか?
液冷トレイであっても、二次熱を管理するために空気は循環する必要があります。高密度SmartRibbonケーブルを使用することで、ケーブル径を大幅に削減し、物理的なケーブル配線がエアフローや液冷マニホールドを妨げないようにします。
+ SUレベルのケーブル配線の距離制限は何ですか?
マルチモード(OM4/OM5)は400G/800Gで50メートルに制限されています。これを超える集中型スパイン・ツー・コアリンクの場合、信号劣化なしでさらなるリーチをサポートするにはシングルモードG.657.A1ファイバーが必須です。
+ AIデータセンターのバックボーンに標準の屋外ケーブルを使用できますか?
いいえ、できません。屋内のAIホールでは、地域の規制に応じて、必要な火災安全規制を満たすためにLSZH (低煙ゼロハロゲン)、ライザー、またはプレナムが必要です。高密度経路の場合、特別なSlimCORE屋内ケーブルが、細径で必要なストランド数を提供します。
+ SUにおける工場終端ピグテールの利点は何ですか?
MPOコード光ファイバーピグテールは、スパイン層またはコア層での迅速な大量融着接続を可能にします。この片端工場終端は、事前終端の利点を提供しつつ、現場で必要な長さに合わせて「ブランク」側を柔軟に取り付けることができます。

AIファクトリーを設計する

ScaleFibreは、NVIDIA DGX SuperPODデプロイメント向けに事前終端されたケーブルソリューションを提供します。

お問い合わせ

NVIDIA DGX SU用の高密度ファイバートランクに関する詳細情報を入手してください。