AMD、AIチップを巡る熾烈な戦いでNVIDIAのメモリ上限を打ち破る
シリコンバレーでの対決:AMDの大胆な288GBメモリ戦略がAIハードウェアの勢力図を塗り替える
人工知能コンピューティングにおけるNVIDIAの長年の優位性に対し、AMDはこれまでで最も野心的なAIハードウェア製品群を発表した。その目玉となるのは、主要な仕様であるメモリ容量において業界リーダーを凌駕するチップである。今週サンノゼで開催された「Advancing AI 2025」イベントで、AMDは比類なき288GBの広帯域メモリを搭載したInstinct MI350シリーズを披露した。これはNVIDIAの主力Blackwellチップよりも50%多い容量であり、1,500億ドル規模のAIアクセラレータ市場における競争の力学を再形成する可能性がある。
「最初に仕様を共有し始めたとき、信じられない、まったく狂っていると思った。これは並外れた進歩になるだろう」とOpenAIのサム・アルトマンCEOはイベント中に述べ、AMDの技術的成果の重要性を強調した。
AMD新AI製品のファクトシート
製品名/シリーズ | 主な仕様・特徴 | 性能ハイライト | 提供開始時期/リリース |
---|---|---|---|
Instinct MI350シリーズ (MI350X & MI355X) | - アーキテクチャ: CDNA 4、TSMC N3Pプロセスノード - メモリ: 最大288GB HBM3E - 帯域幅: 8TB/秒 - 冷却: 空冷(1ラックあたり最大64GPU)および液冷(1ラックあたり最大128GPU) | - 前世代比でAIコンピューティング性能が最大4倍、推論性能が最大35倍 - ラック構成で最大2.6エクサFLOPS (FP4) - NVIDIA Blackwell B200よりも1ドルあたりのトークン処理量が40%向上 (FP4推論時) | 2025年第3四半期(出荷開始) |
MI400/450シリーズ (プレビュー) | - メモリ: 最大432GB HBM4 - プラットフォーム: 「Helios」ラックスケールプラットフォームの中核となる - 競合: NVIDIAのRubin/Vera Rubinプラットフォームと競合 | - MI350シリーズと比較して、Mixture of Experts(MoE)モデルでの推論性能が最大10倍に向上する見込み | 2026年 |
Helios AIラック | - コンポーネント: 最大72のGPU、Zen 6 EPYC CPU、および新しいVulcanoネットワーキングチップを統合 - 設計: ハイパースケールAI向けの液冷式、フルラック統合コンピューティングエンジン | - 性能は統合されたコンポーネント(MI400/450シリーズ)に基づく | 2026年 |
ROCm 7.0ソフトウェアスタック | - CUDAに対抗するオープンなAIエコシステムの構築を目指す - CUDA互換shimを搭載し、オープンソースCUDAプロジェクトの72%を「箱から出してすぐに」再コンパイル可能 | - ROCm 6.0と比較して、推論性能が4倍以上、トレーニング性能が3倍以上向上 | 提供中 |
開発者クラウド | - 開発者がAMDの最新GPUに即座にアクセスできる新しいクラウドサービス - NVIDIAのDGX Cloud Leptonサービスを模倣 | - (N/A - アクセスプラットフォーム) | 提供中 |
メモリの画期的な進歩がAIのボトルネックを解消
AMDの新しいCDNA 4アーキテクチャとTSMCの先進的なN3P製造プロセスに基づいて構築されたInstinct MI350シリーズは、メモリ容量という重要な仕様においてNVIDIAを明確に上回る、同社初の製品である。288GBのHBM3Eメモリとチップあたり8TB/秒の帯域幅を備えるMI350は、現代の大規模言語モデル(LLM)の実行における主要な制約となっているメモリ容量の問題に対処する。
AIアプリケーション、特に数十億のパラメータを持つモデルが関わる推論ワークロードにおいて、このメモリ優位性は目に見えるパフォーマンス向上に繋がる。初期のベンチマークでは、MI350がFP4精度においてNVIDIAのBlackwell B200よりも1ドルあたり約40%多くのトークンを処理できることが示唆されている。これは主に生のスループット性能ではなく、メモリ効率によるものだ。
「これはAMDのAI戦略がついに具現化する瞬間だ」と匿名を希望した業界のシニアアナリストは述べた。「MI350のメモリ容量は、単なるスペックシート上の勝利にとどまらない。それは大規模なLLM推論で何が可能になるかを根本的に変えるものだ。」
このチップは、1ラックあたり最大64GPUをサポートする空冷構成と、1ラックあたり最大128GPUを可能にする液冷構成の両方で提供され、最大2.6エクサFLOPSのFP4性能を提供する可能性を秘めている。AMDは、MI350シリーズが2025年第3四半期に出荷されることを確認した。これはNVIDIAがBlackwellアーキテクチャの出荷を開始してから約9ヶ月後となる。
チップを超えて:AMDのフルスタック攻勢
MI350がAMDの短期的な攻勢を表す一方で、同社の長期的な戦略はさらに野心的に見える。AMDは2026年リリース予定のMI400/450シリーズチップをプレビューした。これらは次世代HBM4メモリを最大432GB搭載し、ハイパースケール導入向けに設計された同社の「Helios」ラックスケールAIプラットフォームの中核をなす。
Helios AIラックは、最大72のGPUをZen 6 EPYC CPUおよびAMDの新しいVulcanoネットワーキングチップと共に統合する液冷システムであり、AMDがNVIDIAとチップ単体ではなくフルシステムレベルで競争する意図を示している。このラックスケールアプローチは、NVIDIAのVera Rubin戦略を模倣しており、AIハードウェア市場で最大かつ最も収益性の高いセグメントであるハイパースケールデータセンターを標的としている。
AMDはまた、ソフトウェアエコシステムを大幅に強化し、前バージョンと比較して推論性能が4倍以上、トレーニング性能が3倍以上向上したROCm 7.0をリリースした。同社は、NVIDIAのDGX Cloud Leptonサービスと同様に、AI開発者が最新のGPUに即座にアクセスできる新しい開発者クラウドサービスも発表した。
戦略的パートナーシップがAMDのAI推進を裏付ける
主要なクラウドプロバイダーやAI企業は、すでにAMDの新しいハードウェアへの支持を表明している。Oracle Cloud Infrastructureは、131,000個以上のMI355Xチップのクラスターを導入することを約束しており、これは現時点で公表された最大規模の注文である。MetaはLlamaモデルの推論にMI350を導入しており、MicrosoftとOpenAIはAMDとの協業を深めている。
これらの提携は、AMDの積極的な買収戦略によって補完されている。同社は過去1年間で25のAI関連スタートアップを買収または投資している。特筆すべき買収には、サーバー構築企業のZT Systems、チップ開発チームのUntether AI、AIスタートアップLaminiのタレントなどが含まれ、これらはすべてAMDのエンドツーエンドAI能力を強化することを目的としている。
ウォール街の慎重な反応
技術的な成果にもかかわらず、ウォール街の反応は慎重だ。発表後、AMDの株価は2%下落し、NVIDIAの株価も1.5%下落した。これは、技術ロードマップ自体ではなく、その実行可能性に対する投資家の懐疑的な見方を反映している。
AMDの現在の株価は、2026年予想EBITDAの約9倍で取引されており、NVIDIAの13倍という株価収益率に比べて30%のディスカウントとなっている。この評価格差は、AMDが供給制約とソフトウェアエコシステムの不利を克服できるかどうかの市場の根強い懸念を浮き彫りにしている。
「スペックは印象的だが、ソフトウェアはAMDの弱点であり続けている」と大手投資銀行の半導体アナリストは指摘する。「ROCmがプラグ互換の推論ランタイムと共に提供されない限り、ターンキー顧客はNVIDIAを選び続けるだろう。」
サプライチェーンの制約が影響を限定する可能性
AMDのAI戦略の成功は、技術力だけでなく、製造能力にもかかっている。TSMCのN3P生産能力は逼迫しており、Apple、AMD、Qualcommが供給枠を巡って競合している。業界関係者の推定では、AMDは2025