9月23日、ウォール・ストリート・ジャーナルは、NVIDIAとOpenAIが画期的な戦略的パートナーシップを締結したと報じました。両社は共同で世界最大のAIコンピューティング・インフラ・ネットワークを構築し、少なくとも10ギガワット(GW)の専用AIデータセンター・クラスター、数百万基のNVIDIA GPUの導入、そして自立型クリーンエネルギー供給システムのサポートを網羅します。
NVIDIAはこのプロジェクトに最大1,000億ドルの投資を約束したと報じられており、システムの第1フェーズは2026年後半にNVIDIAの次世代スーパーコンピューティング・プラットフォーム「Vera Rubin」上で稼働する予定です。
海外メディアのアナリストは、OpenAIにとってこの合意は、非営利企業から営利企業への移行における大きなボトルネックとなっているコンピューティングパワーコストの解消につながると指摘しています。現在、GPT-5レベルのモデルのトレーニングにかかる電力コストはOpenAIの総コストの35%を占めていますが、独自のデータセンターを構築することで、長期的な運用コストを70%削減できる可能性があります。さらに、この専用コンピューティングクラスターは、ロボット群によるグローバル物流の自動化など、汎用人工知能(AGI)の物理世界との相互作用能力に関するOpenAIの先駆的な研究を支援します。
共同声明によると、最初のVera Rubinシステムは、2026年第3四半期にテキサス州ダラスのデータセンターで稼働開始予定です。初期構成には、世界トップ50のスーパーコンピュータの演算能力を合わせた50万基のBlackwell Ultra GPUが含まれます。NVIDIAとOpenAIは、今後6週間以内に株式配分、技術共有、データセキュリティに関する詳細を確定し、プロジェクトの進捗状況を監督するための共同ガバナンス委員会を設立する予定です。