
OpenAI、Broadcomと提携し3500億ドル規模のカスタムAIチップ開発へ、Nvidiaからイーサネットネットワークへ移行
覇権争い:OpenAI、3,500億ドルを投じてシリコンの旧体制再構築に挑む
ブロードコムとのカスタムチップ契約は、純粋な計算能力からインフラ制御への転換を示唆――AIの経済的未来を巡る戦いの構図を塗り替える
サンフランシスコ — OpenAIは、テック史上最も野心的なハードウェアプロジェクトの一つを開始した。ブロードコムと提携し、10ギガワット規模のカスタムAIアクセラレータを設計・展開する。この数年にわたる取り組みは、3,500億ドルから5,000億ドルの価値があるとされ、単なるチップ設計の域をはるかに超えるものだ。その目的は、AIエコシステム内で力(パワー)と利益がどこに位置するかを再定義することにある。
この提携は、純粋な処理速度を追い求めるのではなく、その基盤となる電力アクセス、冷却効率、そしてネットワークアーキテクチャに焦点を当てている。かつて見過ごされてきたこれらの要素が、今や大規模AIにおける競争力を左右するようになっている。
2026年後半に開始し2029年まで続くこの期間中、OpenAIは自身のモデルに合わせたカスタムアクセラレータを開発し、ブロードコムがその製造とラックシステム全体の構築を担当する。特筆すべきは、プラットフォーム全体が、ハイパフォーマンスコンピューティングにおける長年の定番であるNvidiaのInfiniBandではなく、ブロードコムのイーサネットネットワーキング上で稼働することだ。
ブロードコムは既に、102.4テラビットのイーサネットスイッチ「Tomahawk 6 “Davisson”」の発表により、この未来がどのようなものになるかを示している。これは、大規模なコパッケージドオプティクスを搭載して出荷される初の製品となる。オプティクスをチップ基板に直接統合することで、この設計は消費電力とネットワークの不安定性を劇的に削減する。これらは、大規模なAI学習クラスターにおける最大の課題の2つであった。データセンターが何千ものGPUを、エネルギーを無駄にしたりリンク障害を引き起こしたりせずに接続し続けることに苦慮する中、この画期的な進歩はAIネットワークの構築と維持の方法に大きな転換点をもたらす。
電力が制約となる時
その規模は前例がない。10ギガワットの計算能力は、チップレベルで年間約88テラワット時に相当する。冷却および施設運営費が考慮されると、合計は年間105テラワット時に近づき、これはスイスの年間総電力消費量の約2倍にあたる。
ある半導体アナリストは、「これは単なるチップ取引ではなく、インフラの獲得競争だ」と述べた。「予測可能な電力を確保することが、真の参入障壁になりつつある。」
電力アクセスは、AI展開における最大のボトルネックとして浮上している。ギガワット規模のデータセンターは依然として稀であり、許認可は遅く、地域社会からの反対も高まっている。OpenAIがオラクルと共同で主要なエネルギー関連プロジェクトに取り組んでいると報じられていることは、より広範な変化を示唆している。それは、電力を制御することが、データを制御することと同じくらい重要であるということだ。
誰も予想しなかったネットワーキングの反乱
OpenAIのイーサネットへの移行は、NvidiaのAIネットワーキングにおける支配力を揺るがす可能性がある。InfiniBandは、その低レイテンシー性から、高度なモデルの学習には不可欠と長らく考えられてきた。しかし、現在ほとんどのAIワークロードが発生する推論においては、マイクロ秒単位のレイテンシー向上よりも、総スループットと運用上の柔軟性がより重要となる。
ブロードコムのTomahawk 6イーサネットスイッチは、102.4 Tbpsのスループットとコパッケージドオプティクスを搭載して最近発表されたが、時宜を得たものとみられる。ウルトラ・イーサネット・コンソーシアムの新しい標準は、これまでは独自の技術でしか実現できなかった性能に対し、ベンダーニュートラルな道筋を提供する。
ある元クラウドインフラ幹部は、「標準化されたネットワーキングは、企業が独占的価格設定に対して優位性を得る方法だ」と指摘した。OpenAIがイーサネットが現実世界のAI需要に拡張できることを証明すれば、ネットワーキングの状況は急速に変化する可能性がある。
シリコンの裏を読む
この提携構造は、OpenAIの戦略を明らかにしている。すなわち、チップを自社で設計し、製造を外部に委託し、知的財産を保持するというものだ。これはGoogleのTensorやAmazonのGravitonのアプローチを反映しているが、AI推論に特化している点が異なる。
業界関係者は、これらのアクセラレータがピーク時の浮動小数点性能よりも、メモリ帯域幅とスパース計算効率を重視すると予想している。1日あたり数十億のトークンが処理される時代においては、学習速度よりもトークンあたりのコストがより重要となるのだ。
これはNvidiaにとって課題となる。同社は統合されたハードウェア、ソフトウェア、ネットワーキングを提供することで成長してきた。もし推論の経済性が学習ハードウェアから切り離されるようなことがあれば、市場は専門化されたシステムに有利な形で分裂する可能性がある。
波及する影響
Nvidiaの短期的な見通しは依然として強いものの、圧力は高まっている。アナリストは、InfiniBandの導入を保護するために、価格調整やバンドル戦略が取られると予想している。
AMDは戦略的な岐路に立たされている。同社のMIアクセラレータとROCmスタックはオープンな代替手段としての地位を確立しているが、カスタムシリコンの普及は利用可能な市場を縮小させる。もしイーサネットが勢いを増せば、AMDは恩恵を受ける可能性がある。ただし、それはニッチなユースケースよりもオープンなネットワーキングに注力した場合に限られるだろう。
一方、ブロードコムは有利な立場にあるようだ。イーサネットとカスタムアクセラレータへの長期的な投資が、現在のハイパースケールトレンドと一致している。利益率の低いシステム統合作業でさえ、同社のネットワーク技術と組み合わせることで、より価値のあるものとなる。
メガワットを追う
この投資の物語は半導体だけにとどまらない。クラウドプロバイダーは今や、GPUの在庫だけでなく、電力アクセスでも競争している。オラクルが報じた3,000億ドル規模の「Stargate」イニシアチブは、エネルギー優先のサイト選定を中心に据えており、真の希少資源はチップではなく電力であることを強調している。
データセンターが集積する地域の電力会社は、莫大な負荷の増加に直面している。燃料電池、小型モジュール炉、廃熱利用システムといったメーター裏(自家発電など直接供給)ソリューションは、試験運用から優先事項へと移行している。データセンターは、政治的および地域社会の合意形成を必要とする重工業のように見え始めている。
期待値とタイムラインの調整
投資家はOpenAIの2026年の目標を慎重に見るべきだろう。第一世代のカスタムシリコンは、パッケージング、ソフトウェアの準備、熱問題などにより、しばしば遅延に直面する。短期間の遅れであれば通常であり、懸念すべきことではない。
1万ノードを超える規模でのイーサネットは、複雑な実稼働環境でInfiniBandの性能に匹敵できることをまだ証明する必要がある。ラボでのベンチマークが実際の使用状況を反映することは稀だからだ。
電力調達も同様のリスクを伴う。ギガワット規模の容量を確保するには、規制上のハードル、送電制約、地域社会との交渉が必要となる。電力供給インフラの構築は、そこで稼働するチップの設計よりも通常時間がかかるものだ。
市場参加者への投資に関する考察
いくつかのテーマが浮上している。ブロードコムは、そのネットワーキングと統合能力から恩恵を受ける可能性があるが、利益率の動向には注意が必要だ。Nvidiaの学習における優位性は防御的な参入障壁として依然として機能するが、イーサネットインフラへの多角化はヘッジとなり得るだろう。
最も見過ごされている機会は、エネルギーインフラかもしれない。データセンターの容量を持つ電力会社、ベースロード電源を持つ再生可能エネルギー開発業者、迅速な展開を専門とする建設会社が最も恩恵を受ける可能性がある。電力、冷却、土地といった物理的な制約が、AI成長の決定的な制約となりつつあるのだ。
投資判断は常に、リスクと目標を慎重に評価した上で下されるべきです。市場状況は変化する可能性があり、読者の皆様はご自身の状況に合わせた専門家のアドバイスを求める必要があります。
OpenAIとブロードコムの提携は、AIの産業段階を示唆している。そこでは、成功が巧妙なアルゴリズムよりも、前例のない規模での電力、熱負荷、効率的なインフラ管理に左右されるようになる。このロジスティクスをマスターした者が、業界の次の10年を定義することになるかもしれない。