AIスタートアップModular、NVIDIAのコンピューティング能力支配に挑むため2億5000万ドルを調達

著者
Tomorrow Capital
18 分読み

シリコンバレーのスタートアップ、NVIDIAのAI支配打破に2億5,000万ドルを投じる

AI需要の急増に伴い、ベンダーロックインへの反発が高まる中、Modularは記録的な資金調達を実現

シリコンバレーのサーバーファーム内で、大きな変化が起きつつある。AIワークロードがより多くの計算処理能力を消費するにつれて、ある若いスタートアップが、ハイテク業界で最も支配的な勢力の一つであるNVIDIAのAIインフラにおける締め付けを打破するために、2億5,000万ドルもの多額の資金を調達した。

そのスタートアップ、Modularは、プログラミング言語の先駆者であるクリス・ラットナー氏が共同設立した企業で、水曜日(現地時間)にトーマス・タル氏率いるUS Innovative Technologyファンドが主導するシリーズCラウンドの資金調達を確保したと発表した。この資金調達により、Modularの評価額は16億ドルにほぼ3倍に跳ね上がり、2022年の設立以来の総調達額は3億8,000万ドルに達した。同社は今、AIコンピューティングのルールを書き換えようとする挑戦者たちの最前線に位置している。

しかし、この鳴り物入りの裏には、より深い問題がある。業界は単に高速なチップを追い求めているわけではない。計算処理能力の需要が爆発的に増加しているにもかかわらず、今日の大部分の容量が、細分化され、ベンダー固有のソフトウェアスタックのために遊休状態になっているという不都合な現実に苦しんでいるのだ。


静かなる危機:計算能力が飢渇する世界での無駄な計算資源

AIの処理能力への要求は果てしなく続くように見える。データセンターはガラスの大聖堂のようにそびえ立つが、業界関係者は人目に触れる場所に隠された非効率性についてささやいている。問題はハードウェア自体にあるのではなく、それを囲む「囲い込みエコシステム(walled gardens)」にあるのだ。

NVIDIAにはCUDAがある。AMDはROCmを提供している。Appleは独自のフレームワーク群を保護している。それぞれが開発者を独自のサイロに閉じ込め、単一のベンダーに忠誠を誓うか、途方もないコストをかけて複数のコードベースをやりくりするかの二者択一を迫っている。あるアナリストはこれを「イノベーションへの課税」と呼んでいる。

その課税は小さくない。AIモデルの学習コストは月ごとに高騰しており、推論コストが下がっているにもかかわらずだ。企業は計算処理能力に記録的な額を費やしているが、ソフトウェアのボトルネックのためにその多くは効果を発揮できていない。レーシングカーの車列がすべて1速に入ったままになっている様子を想像してほしい――それが多くのエンジニアが描く状況だ。


Modularの賭け:AIの「オペレーティングシステム」を構築する

Modularは解決策を持っていると考えている。同社は自らを、かつてサーバーハードウェアを抽象化し、企業ITを永遠に変革したVMwareのAI版として売り込んでいる。

そのプラットフォームは3つの主要なコンポーネントを結びつける。最上位には、AI向けに調整されたKubernetesネイティブのオーケストレーションシステムであるMammothがある。一般的なオーケストレーションとは異なり、Mammothは大規模推論の特異性を理解している。具体的には、ワークロードタイプに応じたリクエストルーティング、より賢い割り当てのために計算処理をキャッシュから分離すること、同じハードウェア上で複数のモデルをやりくりすることなどだ。

次にMAXというサービングレイヤーがある。ここでは、Modularはスペキュラティブデコーディングやオペレーターレベルのフュージョンといった最適化を詰め込んでいる。さらに、現実的な互換性も約束している。MAXはPyTorchと独自モデルをサポートしつつ、OpenAIのAPIと連携するエンドポイントを公開する。

そして基盤となるのが、Pythonの容易さとC++の生のスピーディーさを融合させた新しいシステム言語Mojoだ。Modularは言語自体を所有することで、CUDAがNVIDIAに与えたのと同じ種類のロックインを、今回はあらゆるベンダーを横断して実現したいと考えている。

初期のベンチマークは有望に見える。Modularは、同社のスタックが最新のハードウェアにおいて、vLLMやSGLangのようなフレームワークよりも20〜50%優れたパフォーマンスを提供し、パートナーに対しては最大70%の遅延削減と最大80%のコスト削減を実現すると述べている。


全か無かの市場で味方を築く

Modularはこの戦いに単独で挑んでいるわけではない。今回の資金調達ラウンドで、クラウドプロバイダーからチップメーカーに至るまでのアライアンスが明らかになった。Oracle、AWS、Lambda Labs、Tensorwaveが提携に名を連ねている。ハードウェアパートナーにはAMDだけでなく、興味深いことにNVIDIA自身も含まれている。顧客はInworldのようなスタートアップから、Jane Streetのような大企業まで多岐にわたる。

クラウドプラットフォームにとって、Modularを支援することは理にかなっている。統合されたソフトウェアレイヤーは、特定のチップサプライヤーへの依存度を下げ、利用率を向上させる可能性があるからだ。AMDやその他の競合企業にとっては、NVIDIAとの競争条件を均等にし、導入障壁を下げるチャンスとなる。

投資家のトーマス・タル氏は率直にこう述べている。「戦略的なAI導入は、今日の経済において最も重要な競争要因である。」その裏には、ソフトウェアレイヤーを支配する者が市場だけでなく国家競争力までも形作る可能性があるという明確な意味合いがある。

挑戦者にとって、これ以上のタイミングはないだろう。AMDの最新MI350チップは、多くのAIワークロードにおいてNVIDIAの性能に匹敵し、CerebrasやGroqのようなスタートアップは、特定のユースケースで輝く特殊化されたアーキテクチャを推進している。Modularの抽象化レイヤーは、これらの代替案に互角に戦うチャンスを与える可能性がある。


NVIDIAの反撃

もちろん、NVIDIAも手をこまねいているわけではない。同社の**NIM(NVIDIA推論マイクロサービス)**プラットフォームは、CUDAベースのデプロイメントをシンプルなコンテナにパッケージ化する。NVIDIAのエコシステム内で満足している顧客にとって、このターンキーモデルは比類ないシンプルさとパフォーマンスを提供する。

これはModularを典型的なイノベーターのジレンマに陥らせる。Modularは、柔軟性とクロスプラットフォームの自由が、NVIDIAのクローズドエコシステムの洗練さと速度を上回ることを開発者に納得させなければならない。その一方で、vLLM、SGLang、ONNX Runtimeといったオープンソースの競合は、すでに相当な開発者の支持を得ている。

そして、テクノロジーだけでなく市場の力が結果を左右する可能性もある。GPUの需要が供給を上回る状況では、多くの組織はお気に入りのチップを選ぶことができない。利用可能なものを受け入れるしかないのだ。この力学だけでも、Modularのようなベンダーニュートラルなソリューションの導入を促進する可能性がある。


なぜ投資家は関心を持つのか

この2億5,000万ドルの賭けは、ベンチャーキャピタルがAIを見る視点の変化を浮き彫りにしている。派手なモデルスタートアップがヘッドラインを独占する一方で、インフラプレーヤーはより安全で、より持続的な投資として見なされることが増えている。彼らはAI軍拡競争に勝つ必要はなく、誰が最高のモデルを構築しようとも、そこから利益を得るのだ。

16億ドルというModularの評価額は、支援者たちが同社を単なるソフトウェアスタートアップ以上のものと見ていることを示唆している。彼らは、ModularがあらゆるAIプロジェクトが通過しなければならない料金所のような、基盤レイヤーになり得ると賭けているのだ。そのような位置づけは、クラウド大手やハードウェアベンダーにとって魅力的な買収候補となる。


今後の道のり

それでも、Modularの挑戦は計り知れない。単に言語やフレームワークを構築するだけでなく、言語、ランタイム、オーケストレーションを同時に手がけているのだ。そのような困難な道のりを乗り越えられる企業は少ない。

歴史は希望と同時に注意も促している。VMwareはそれを成し遂げ、ITを再構築した。しかし、多くの企業が同様の偉業を試みて、パフォーマンスのトレードオフや既得権益を持つプレーヤーからの抵抗によってつまずいた。Modularは、ハードウェア全体で「十分な」速度を提供しつつ、切り替えを正当化する運用上の容易さも提供しなければならない。

時間は刻一刻と過ぎている。NVIDIAのエコシステムは日々強化されており、オープンソースの競合も急速に進んでいる。Modularがその存在を確立するチャンスは永遠に開かれているわけではない。

AIの世界にとって、その賭けは大きい。Modularが成功すれば、多様で競争力のあるハードウェアオプションとより公正な価格設定の未来が到来する可能性がある。失敗すれば、NVIDIAの優位性がほぼ永続的なものになる可能性もある。

一つ確かなことがある。AI計算コストが高騰し、供給が逼迫するにつれて、ベンダーに依存しないインフラの魅力はますます強まるだろう。Modularがその需要を持続的な成功に変えることができるかどうかが、同社の運命だけでなく、今後数年間のAIインフラのあり方をも左右するかもしれない。

投資テーゼ

側面概要
中核テーゼ統一AI計算レイヤーは、ハードウェアの多様化とベンダーロックインへの疲弊によって推進される、現実的で確信度の高いトレンドである。しかし、その成功はNVIDIAの反撃(NIM、TensorRT-LLM)に対し、パフォーマンスの同等性と運用上のシンプルさを証明できるかにかかっている。
重要なシグナル:Modularの資金調達評価額16億ドルで2億5,000万ドルを調達。「AI向けVMware」として位置づけられ、クラウド、エンタープライズ、ISV向けにCUDA/ROCm/ASICを抽象化するための統一スタック(OpenAI互換のサービング、K8sコントロールプレーン、カーネルDSL)を提供する。
重要なシグナル:NVIDIAの反撃NIMマイクロサービスTensorRT-LLMは、CUDAエコシステム内でターンキー式の高性能パスを提供し、サードパーティの統合ソリューションの必要性を疑問視する魅力的な「簡単ボタン」となっている。
市場を動かす要因(根本原因)1. ベンダーロックイン疲弊: NVIDIAに対する価格交渉力の欲求。
2. ハードウェアの多様化: 信頼できる代替品(AMD MI350、Groq、Gaudi、Apple MLX)。
3. 運用上の複雑さ: プリフィルルーティング、量子化など、すぐに使える機能の必要性。
4. 資本の動き: 新興クラウド/クラウド事業者は、より良いROICのために利用率とポータビリティを必要としている。
競合環境水平統合型: Modular(フルスタック)、ONNX Runtime(実用的)、OpenXLA/IREE(コンパイラIR)。
サービングエンジン: vLLM(OSSのデフォルト)、SGLang(急成長)、NVIDIA NIM/TRT-LLM(既存の容易さ)、Hugging Face TGI(エンタープライズ向け)。
ハードウェア垂直型: NVIDIA(引力源)、AMD(信頼性を獲得)、Groq(速度の物語)。
勝利への道筋(Modular/統合ソリューションの場合)1. 流通: クラウド/新興クラウドイメージへのOEMプリインストール。
2. チップベンダーとの共同開発: NVIDIA以外のハードウェアでのDay-0サポートとパフォーマンス同等性。
3. 運用上の勝利: 高度な機能(プリフィルルーティング、マルチテナンシーなど)をデフォルトで提供。
4. 開発者の吸引力: Mojo言語の成功、またはPyTorch/OpenAI APIとの強力な相互運用性。
主要なリスク/失敗要因1. NVIDIAの利便性: NIMが「十分良い」場合、ポータビリティの魅力が薄れる。
2. パフォーマンスの遅れ: 一般的なハードウェアで5~20%遅い場合、移行を躊躇させる。
3. 過剰構築のリスク: 言語+ランタイム+コントロールプレーンの範囲が広すぎる。
4. オープンスタンダード: ONNX/OpenXLA/vLLMの成熟により、新しいレイヤーが冗長になる可能性。
デューデリジェンスの焦点(VC向け)1. ポータビリティの証明: B200 vs MI350 vs Gaudiにおける本番環境でのSLO(TTFT、p95、100万トークンあたりの費用)。
2. 流通: クラウドマーケットプレイスにおけるデフォルトオプションとしての組み込み。
3. 運用プリミティブ: NIMとの機能同等性(ルーティング、キャッシング、マルチモデルサービング)。
4. エコシステム: モデルサポート、API互換性、vLLM/SGLangとのベンチマーク比較。
5. マージン: 「タスクごとの」収益化におけるユニットエコノミクス。
創業者の機会1. LLM可観測性: トークンレベルのトレーシング、コストアトリビューション。
2. 量子化ツールチェーン: 証明可能な精度限界、自動A/Bテスト。
3. マルチテナントの安全性とポリシー: インフラ層でのガードレール。
4. エッジ統合: ExecuTorch/MLX/NPUとクラウドメッシュの橋渡し。
統一レイヤーが勝利した場合の影響1. チップの多様化が加速(AMD/Gaudi/Groqがシェアを獲得)。
2. クラウド/新興クラウドがNVIDIAに対する影響力を取り戻す。利用率/ROICが向上。
3. 標準(ONNX、OpenXLA)がより強力になる。
失敗した場合の影響NIMによりCUDAの覇権が深まる。NVIDIA以外のハードウェアの導入が減速する。
12~24ヶ月の予測1. 二層スタックの世界: 「NVIDIA優先」と「統合優先」のスタックが共存する。
2. M&A: ハイパースケーラー/新興クラウドが統合ソリューション企業を買収。
3. 統一ランタイムの成熟に伴い、推論におけるAMDのシェアが増加する。
4. サービングエンジンが統合される。競争はわずかな性能差ではなく、運用性へと移行する。
追跡すべきKPI1. コスト: B200 vs MI350におけるp95での100万出力トークンあたりの費用。
2. 速度: NIMと比較した本番稼働までの時間。
3. カバレッジ: チップ/ベンダーサポートとDay-0対応。
4. 効率: プリフィルルーティングのヒット率、KVキャッシュの再利用。
5. 流通: マーケットプレイスイメージとOEMによるプリバンドル。

投資助言ではありません

あなたも好きかもしれません

この記事は、 ニュース投稿のルールおよびガイドラインに基づき、ユーザーによって投稿されました。カバー写真は説明目的でコンピューターにより生成されたアートであり、事実を示すものではありません。この記事が著作権を侵害していると思われる場合は、 どうぞご遠慮なく弊社まで電子メールでご報告ください。皆様のご協力とご理解に感謝申し上げます。これにより、法令を遵守し、尊重あるコミュニティを維持することが可能となります。

ニュースレターに登録する

最新のエンタープライズビジネスとテクノロジー情報をお届けします。さらに、新しいサービスや提供物をいち早く独占的にチェックできます。

当社のウェブサイトでは、特定の機能を有効にし、より関連性の高い情報を提供し、お客様のウェブサイト上の体験を最適化するために、Cookieを使用しています。詳細については、 プライバシーポリシー および 利用規約 で確認できます。必須情報は 法的通知