AMDの伏兵:TensorWave、NvidiaのAI市場支配に挑むため1億米ドルを調達
ラスベガス — ラスベガス郊外の陽光が降り注ぐデータセンターでは、何列にも並んだ光沢のあるサーバーラックが活気に満ちている。高性能な冷却システムを通しても、数千個のプロセッサーから放たれる熱が肌で感じられるほどだ。ここは、競争が激しいAIコンピューティング市場で突然重要な挑戦者として現れた新興企業、TensorWaveの中枢部だ。
TensorWaveは本日、MagnetarとAMD Venturesが共同で主導し、Maverick Silicon、Nexus Venture Partners、そして新規投資家のProsperity7が参加するシリーズA資金調達で1億米ドルを確保したと発表した。この資金調達は、同社が8,000基を超えるAMD Instinct MI325X GPUをAI学習専用クラスターとして導入する中で行われた。これにより、同社はNvidia製ハードウェアが圧倒的に支配する市場において、AMDに焦点を当てたAIインフラストラクチャプロバイダーとしておそらく最大規模になる可能性がある。
TensorWaveのCEO、Darrick Horton氏は、同社の発表で「この資金調達は、TensorWaveの最先端AIコンピューティングへのアクセスを民主化するというミッションを推進します」と述べた。「当社の8,192基のInstinct MI325X GPUクラスターは、急成長するAIインフラストラクチャ市場で、AMDを搭載した新たなリーダーとしての地位を確立する上での始まりに過ぎません。」
混雑した市場でのメモリアドバンテージ
TensorWaveは、CoreWeaveやLambda Labsのような大企業と比較すると、AIコンピューティング市場全体のごく一部を占めるにすぎないが、AMDのテクノロジーに戦略的に焦点を当てることで、一部のAI開発者がますます魅力的だと感じる技術的な利点、すなわちメモリ容量を提供している。
AMDのInstinct MI325X GPUは、カード1枚あたり最大128GBのHBM3メモリを提供する。これは、同等のNvidia製品の2倍のメモリ量だ。この追加のメモリ容量は、従来のGPUメモリ制限に頻繁にひっかかる大規模なAIモデルの学習において、大きな優位性をもたらす。
ある金融サービス会社の機械学習研究者は、「メモリ容量の違いは非常に重要です」と述べた。「私たちのモデルの多くは、生の計算能力ではなく、メモリによって制限されています。その追加の余裕があることで、以前は不可能だったワークロードが突然実行可能になります。」
TensorWaveにとって、この技術的な差別化は重要な局面で訪れた。業界予測によると、世界のAIインフラストラクチャ市場は2027年までに4,000億米ドルを超えると予測されている。しかし、適切なAIコンピューティングリソースの取得は、多くの組織にとってAI開発および展開における最も重要な障壁の一つとなっている。
激しい競争の中での規模拡大
TensorWaveは、年間売上高が1億米ドルを超えるペースで年末を迎える見込みだと主張している。これはシリーズAの企業としては目覚ましい実績であり、対前年比で20倍の増加に相当する。しかし、これは既存の競合他社にはるかに遅れをとっている。Nvidiaの支援を受けるCoreWeaveは、2024年に19.2億米ドルの売上を報告し、評価額は230億米ドルに達している。別の競合であるLambda Labsも、2021年の7,000万米ドルから2024年には約2億米ドルに売上が増加した。
TensorWaveのPiotr Tomasik社長は、「今回確保した1億米ドルは、企業がAIコンピューティングリソースにアクセスする方法を変革するでしょう」と述べた。「戦略的なパートナーシップや投資家との関係を慎重に育むことで、TensorWaveはAI導入が直面する重大なインフラストラクチャのボトルネックを解決できる位置につけられました。」
しかし、業界アナリストは、今後重大な課題があることを指摘している。NvidiaはデータセンターAIチップ市場の80%以上を支配しており、多くのAI開発者が放棄したがらない成熟したCUDAソフトウェアエコシステムによって支えられている。AMDの代替ソフトウェアスタックであるROCmは改善されているものの、Nvidiaのプラットフォームほどの普及度や開発者の慣れにはまだ欠けている。
Maverick SiliconのマネージングディレクターであるKenneth Safar氏は、「TensorWaveは、単に計算能力を増やすだけでなく、容量に制約のある市場に全く新しい種類の計算能力をもたらしています」と述べた。「これは、AIインフラストラクチャエコシステム全体にとって非常に有益になると考えます。」
迫りくる価格競争
AIインフラストラクチャの状況は、資金豊富な競合他社でますます混雑している。CoreWeaveは、Nvidia GPUを活用してデータセンターを拡大するために、約129億米ドルの負債を調達した。Lambda Labsは、Nvidiaチップを担保にした5億米ドルの資産担保融資を確保した。一方、AWSのような主要なクラウドプロバイダーは、独自のAIチップを積極的に価格設定しており、AWS TrainiumはNvidiaベースのソリューションと比較して30〜40%のコスト優位性を提供すると報告されている。
TensorWaveのAMD重視戦略は、コストメリットを提供する可能性がある。チャネル調査では、AMDのシリコンは、同等のNvidia製品と比較して、浮動小数点演算あたりの価格が約20%安いことが示唆されている。この効率性により、特にメモリ集約型のワークロードにおいて、TensorWaveは健全なマージンを維持しながら、競合他社より低価格で提供できる可能性がある。
AIインフラストラクチャ最適化を専門とするある業界コンサルタントは、「メモリのボトルネックは、多くの実稼働AIシステムにおける隠れた制約です」と指摘した。「トレーニング実行あたりのコストは、もはや生テラフロップスだけでなく、モデルを効率的にメモリに収められるかどうかにかかっています。」
サプライチェーンの回復力
TensorWaveのAMDとの提携における潜在的な利点の1つは、チップ供給の可用性にある。Bainは2026年まで30%のチップ不足を警告しているが、AMDの戦略的投資は、TensorWaveが依然として供給不足にあるハードウェアへの優先的なアクセス権を持つ可能性を示唆している。
AMDの上級副社長兼チーフ戦略責任者・コーポレート開発担当であるMathew Hein氏は、「AMDのTensorWaveへの戦略的投資は、AIインフラストラクチャ分野におけるAMDのフットプリントを拡大するというコミットメントを強化するものです」と述べた。
世界のAIコンピューティング需要が爆発的な成長を続ける中、特に企業がNvidiaベースの混雑したインフラストラクチャ以外の選択肢を求める中で、この提携は極めて重要となる可能性がある。
今後の道のり
TensorWaveは、有望なスタートにもかかわらず、克服すべき大きな障害に直面している。報告されている同社の年間売上高は、少数の大口顧客に依存している可能性が高く、顧客集中リスクを生み出す可能性がある。さらに、大規模なデータセンターの構築と維持には、巨額の設備投資が必要となる。現在の8,000基のGPUの導入だけでも、ハードウェアだけで数億米ドルの投資を表している可能性が高い。
同社は、Nvidiaのエコシステムを中心にワークフローを構築してきた主流のAI開発者を惹きつけられることを証明する必要がある。この移行の課題は、AI分野における過去のAMD重視の取り組みにとって困難であった。
複数のAIインフラストラクチャスタートアップ企業のベテランは、「最大の障壁はハードウェア性能ではなく、ソフトウェアの慣性です」と説明した。「開発者は、CUDAに最適化されたコードベースに長年の作業を費やしています。ハードウェア仕様が優れていても、ワークロードの移植を説得するのは困難な戦いです。」
今のところ、TensorWaveの成功は、3つの重要な要素にかかっているように見える。Nvidiaの盤石な地位に対するAMDのソフトウェアエコシステム(ROCm)の成熟速度、競争が激化する市場での価格動向、そして最初の導入を超えて規模を拡大するために必要な追加資本を確保する同社の能力だ。
世界のAIコンピューティング需要が爆発的に増加し続ける中、TensorWaveは、既存プレイヤー以外の選択肢を切望する市場において、興味深い代替手段となっている。技術的な差別化を持続可能な事業上の優位性に転換できるかどうかは、今後明らかになるだろう。