- OpenAIはAMD・Broadcom・Intel・Microsoft・NVIDIAと共同でMRCを開発し、OCPを通じて2026年5月にオープン公開
- パケットを数百のパスへ分散するスプレー技術とSRv6ソースルーティングにより、コア輻輳をほぼゼロに抑え、障害をマイクロ秒単位で回避
- マルチプレーン構成で10万台超のGPUをスイッチ2段だけで接続でき、従来の3〜4段構成より消費電力とコストを削減
大規模AIが直面するネットワーク課題
大規模なAIモデルを訓練する際、1ステップの計算で数百万回のデータ転送が発生します。たった1件の転送が遅れるだけで多数のGPUが待機状態に陥り、ジョブ全体の進行が止まります。遅延の主な原因はネットワーク輻輳(トラフィックの過密状態)とリンク障害の2種類。
これらの問題は、クラスタ規模が大きくなるほど深刻さを増します。同期的な事前訓練(Synchronous Pretraining)では、数万台のGPUが1つのモデルを協調して訓練するため、単一リンクの障害でもジョブ全体が停止するリスクがあります。OpenAIはこの構造を「障害増幅器」と表現しており、Stargateのような超大規模クラスタでは根本的な設計変更が必要だと判断。2年間にわたる業界横断の共同開発を経て、MRC(Multipath Reliable Connection)の策定に至りました。
MRCの設計思想と3つの革新
MRCは、マルチプレーン構成・パケットスプレー・SRv6ソースルーティングという3つの技術を組み合わせたプロトコルです。既存標準であるRoCE(RDMA over Converged Ethernet)を拡張する形で設計されており、AMD・Broadcom製の最新800Gb/sネットワークインターフェースに実装されています。
最初の革新がマルチプレーン構成です。従来は800Gb/sのインターフェースを1本のリンクとして扱っていましたが、MRCではこれを8本の100Gb/sリンクに分割し、8つの独立したネットワーク面(プレーン)を構成します。この変換により、64ポートのスイッチは従来比8倍となる512ポートを収容でき、GPUを10万台超接続するにもスイッチの段数は2段で十分な設計。従来の単一プレーン構成では3〜4段が必要だったため、消費電力・コスト・障害要因の大幅な削減につながります。
パケットスプレーの仕組み
マルチプレーン構成は経路の多様性をもたらしますが、従来のRoCEは1つの転送を1本のパスに固定するため、異なるフローが同一リンクで衝突して輻輳が生じる問題がありました。
MRCはこの制約を根本から変えます。単一の転送からのパケットを数百のパスへ同時に分散(スプレー)し、各パケットに最終メモリアドレスを付与することで、到着順序がばらついても受信側が正しくデータを組み立てられる設計。特定のパスで輻輳を検出するとすぐに別のパスへ切り替え、パケットロスが発生した場合はそのパスを即座に停止して代替経路へ移行します。スイッチのバッファが溢れそうになるとペイロードを切り落としてヘッダだけを転送する「パケットトリミング」機能も組み込まれており、輻輳由来のロスと障害由来のロスを区別して誤判定を防ぎます。

SRv6で静的ルーティングを実現
従来のネットワークはBGP(Border Gateway Protocol)などの動的ルーティングプロトコルで障害時の経路を再計算していましたが、複雑なソフトウェアが動くスイッチは微妙な障害が診断困難になりやすい側面があります。
MRCは動的ルーティングへの依存を大幅に低減し、IPv6 Segment Routing(SRv6)を採用することで送信元がパケットごとに経路を直接指定する構成を実現しました。仕組みはシンプルで、スイッチは自身の識別子が付いたパケットを受け取ると識別子を除去して次スイッチへ転送するだけ。ルーティングテーブルは初期設定時に一度だけ構成すれば、その後は変更不要です。障害パスはMRC側が検出して回避するため、スイッチ側での動的な経路再計算も不要。これにより動的ルーティング特有の障害クラスを丸ごと排除し、ネットワーク制御プレーンを大幅に単純化しています。
本番環境での導入効果
MRCはOpenAIのNVIDIA GB200スーパーコンピュータ群に全面導入されており、テキサス州アビリンのOracle Cloud Infrastructure(OCI)上のStargateと、MicrosoftのFairwaterスーパーコンピュータで稼働中です。ChatGPTやCodexの訓練にも実際に活用されています。
本番環境では、Tier-0〜Tier-1スイッチ間で毎分複数回のリンク揺れが観測される状況でも、MRCが即座に経路を切り替えて事前訓練ジョブへの影響をゼロに抑えた事例が確認されています。最近の大規模モデル訓練中にはTier-1スイッチを4台再起動しましたが、訓練チームへの事前調整なしで実施でき、一時的な速度低下からも短時間で回復。従来であれば単一のリンク障害でジョブが停止していた局面において、MRCは「修理完了を待たずに運用を継続できる」仕組みを実現しました。
OpenAIが音声AI向けWebRTCインフラを刷新した際と同様に、MRCもまた既存標準を拡張しながら実運用の課題を解決するというアプローチを採っています。
業界標準としての公開
MRCの仕様は2026年5月5日、Open Compute Project(OCP)を通じてオープンに公開されました。OCPはFacebookが主導する非営利団体で、データセンターハードウェアの設計をオープン化する枠組みです。OpenAIはMRCを自社の独占技術として留めるのではなく、業界共通の基盤として整備する道を選びました。
AMD・Broadcom・Intel・Microsoft・NVIDIAといった主要プレーヤーとの共同開発とオープン公開の組み合わせは、AI訓練クラスタのネットワーク設計にデファクトスタンダードを生み出す可能性があります。訓練クラスタの規模が拡大するほど、使用可能なコンピュートの割合を決めるのはネットワーク設計。MRCの普及によって大規模AI開発全体のインフラ効率が底上げされることが期待されます。
