生成AIはソフトウェアの仕事を奪うだけでなく、パブリッククラウドにまで及ぶ
10年間、その物語は止められないものに感じられました。「パブリッククラウドに構築しなければ、競合に置いていかれる」と。マネージドサービスは無限のスケーラビリティとグローバルな到達力を約束しました。重力に逆らう必要などあるのでしょうか?しかし、生成AIが登場し、誰も予想しなかった形で状況を一変させました。ソフトウェアエンジニアを置き換えると誰もが恐れていたその技術が、ハイパースケールクラウドを不可避に感じさせていた運用上の強みを、静かに解体しつつあるのです。
これを大規模な再均衡と捉えてください。エージェント型SREシステムはランブックを自動的に作成し、自動修復は人間が気づく前に問題を解決します。コパイロットはTerraform構成やKubernetesマニフェストを数日ではなく数分で生成します。運用負荷が軽減されると、経済性は劇的に変化します。多くの大企業は予測可能なワークロードを実行しており、彼らにとって、自社でキャパシティを保有したり、安価なグローバルVPSを利用したりすることが、再び経済的に合理的な選択となるのです。
(この記事は、生成AIワークロードを除く、非AIのパブリッククラウドワークロードに焦点を当てています)

古い取引は終焉を迎えつつある
パブリッククラウドは、「誰かがサーバーを扱ってくれる」というだけを意味するものではありませんでした。企業は大規模なプラットフォームチームを構築することなく、スピード、安全性、スケーラビリティのためにプレミアムを支払ってきました。しかし、AIはそのギャップをほとんどの人が気づかないうちに急速に埋めています。
エージェント型運用は、単純作業を完全に排除します。大規模言語モデルはオンデマンドでインフラコードを生成し、インシデント発生時には安全なロールバックを提案します。また、複雑な問題を要約し、ポリシーの範囲内で標準的なランブックを実行します。これまでプラットフォームチームが午後の大半を費やしていたタスクが、数分で完了するようになりました。さらに良いことに、ドキュメントの一貫性が保たれ、監査証跡も完全なままです。
オープンソースツールは、本格的な本番環境での使用に「十分マネージド化」されました。Postgresオペレーター、ベクターデータベース、モデルサーバー、フィーチャーストア、オブザーバビリティスタックは、かつてはセルフホストするにはリスクが高すぎると考えられていました。しかし今では、エージェントがポリシー・アズ・コードのフレームワークを使用してこれらを組み立てます。カスタマイズはベンダーロックインを常に凌駕します。AIは、グルーコード(つなぎ合わせのコード)が時間の経過とともに劣化するのを防ぎます。
予測可能なワークロードは、弾力的なワークロードよりも経済的に優れています。成熟した企業のほとんどは、80%以上の安定したトラフィックパターンを維持しています。自社インフラまたはVPSでの高い利用率は、時間単位の課金料金を圧倒します。データ送信費用(Egressコスト)は、この優位性をさらに大きくします。
ここが重要な点です。運用上のプレミアムは業界全体で崩壊しつつあります。1,000推論あたりのコスト、1,000トークンあたりのコスト、処理ギガバイトあたりのコストといった、ユニットエコノミクスだけが唯一の重要な指標となります。この厳しい光の下で、クラウドの利便性による値上げが露呈しているのです。
バーストには依然としてクラウドが必要 – ただし上位10〜20%のみ
クラウドの支持者は、すぐにスパイク(急増)するワークロードについて言及します。マーケティングイベントがトラフィックの急増を引き起こしたり、モデル評価ファームが一時的に立ち上げられたりするようなケースです。これらのシナリオについては、彼らの意見は全く正しいです。予測不能なバーストのためにキャパシティを借りるのは非常に理にかなっています。しかし、だからといって、インフラストラクチャ全体をハイパースケールデータセンターに永久に置き続けることを正当化するものではありません。
業界全体でよりスマートなパターンが出現しつつあります。ベースラインは自社インフラまたはVPSで実行し、70〜85%の利用率を想定してサイジングします。クラウドまたはセカンダリのベアメタルプロバイダーでバーストレーンを作成し、実験、トラフィックスパイク、災害復旧訓練のために使用します。すべての環境で同じコントロールプレーンとポリシーを維持します。配置は、面倒な移行プロジェクトではなく、スケジューリングの決定事項となるのです。
この構図からクラウドが消えるわけではありません。クラウドは、すべてのもののデフォルトのホームではなく、オーバーフローバルブ(溢れた場合の逃がし弁)となるでしょう。
最後まで残っていた議論も勢いを失う
かつては、この議論を即座に終わらせる3つの主張がありました。今日、それらはハイブリッドインフラストラクチャへの道における単なるスピードバンプに過ぎません。
グローバルフェイルオーバーは、綿密に検討するまでは極めて重要に聞こえます。信頼性は、プレミアムなSKUからではなく、システム設計から生まれるものです。エージェント型運用は、リージョンヘルスモニタリング、DNSステアリング、クロスリージョンスナップショット、災害復旧テストを自動化します。ゲームチェンジャーは、即座の証拠生成です。エージェントは、リカバリタイム目標、バックアップログ、変更承認を監査員向けのパッケージにまとめます。規律は依然として重要ですが、それを達成するためにハイパースケーラーは必要ありません。
エンタープライズのID管理とガードレールには、今やオープンソースの代替品があります。Keycloak、Ory、SPIFFE、SPIRE、OpenFGA、Cedar、Vault、OPA、Gatekeeperは、堅牢なID、ポリシー、シークレット管理を提供します。エージェントはこれらのコントロールをエンドツーエンドで連携させ、ポリシーのドキュメントを実際のインフラストラクチャと同期させます。パブリッククラウドが提供する組織的な統合は便利ですが、もはや代替不可能なものではありません。
NVLinkやInfiniBandのような特殊なネットワークファブリックは、特定のワークロードにとって重要です。数百のGPUを跨いでモデルをトレーニングするには、特殊なインターコネクトが必要です。超低レイテンシーの推論には、慎重なトポロジー計画が求められます。しかし、それはワークロードの分類であり、普遍的な切り札ではありません。ほとんどの推論パイプライン、データ処理ジョブ、アプリケーションバックエンドは、標準的なネットワークで問題なく動作します。特殊なワークロードは適切なハードウェアに配置し、その他のすべては高価なハイパースケールプラットフォームから移動させましょう。
小規模チームにプラットフォームの恩恵
小規模企業は、認知負荷を避けるために歴史的にクラウドを選択してきました。しかし今、エージェントがその負担を劇的に軽減します。
おおよそ1週間で、完全なプラットフォームをブートストラップできます。Terraformがインフラストラクチャを自動的にプロビジョニングし、TalosまたはK3sが軽量なKubernetesを提供します。Argo CDはデプロイメントを処理し、Vaultはシークレットを管理します。SPIREがサービスIDを扱い、Keycloakが認証を提供します。Ciliumはすべてを安全にネットワーク接続し、Postgresオペレーターがデータベースを実行します。MinIOはオブジェクトストレージを提供し、Prometheus、Loki、Grafanaがスタック全体を監視します。AIがこれらすべての構成を作成します。
その後は運用が自動操縦されます。ランブックエージェントは安全な修復を自動的に実行し、コンプライアンスエージェントはアクセスレビュー、バックアップ検証、災害復旧メトリクスを収集します。コストエージェントは1,000リクエストあたりの支出を報告し、急激な増加を警告します。
インフラストラクチャ作業がプロンプトの作成と承認のクリックにまで削減されると、ほとんどの中小企業ワークロードにとって、VPSの経済性はオンデマンド価格を圧倒します。マネージドサービスは、真の分単位のバーストや厳しいコンプライアンス要件には依然として役立ちますが、今では必須ではなく、オプションになっています。
新しい計算式:インスタンスではなく、成果に価格を付ける
この変革はイデオロギー的な姿勢ではありません。意思決定を支配する基本的な算術です。仮想マシンのスペック比較をやめ、ビジネスにとって本当に重要なものを追跡し始めましょう。
環境全体で成果あたりのコストを計算します。1,000推論あたりのコスト、1,000トークンあたりのコスト、処理ギガバイトあたりのコストを測定します。キャパシティ調達までの時間は、俊敏性を示します。GPUのプロビジョニングやサービスティアの倍増が数分でできるのか、数日かかるのか。信頼性の証明には、成功した復元タイムスタンプや最近の訓練で検証されたリカバリ目標を含めます。変更速度は、エージェントによって生成されたプルリクエストで、問題がどれだけ迅速に本番デプロイメントに移行するかを追跡します。運用上の手間は、週あたりのページ数と平均修復時間で数えます。
これらのメトリクスを統一されたダッシュボードに表示します。そうすれば、実際にどれくらいのクラウド容量が必要なのかが正確にわかるでしょう。もはや「すべて」であることは稀なのです。
生成AIはパブリッククラウドを貪り食うのか?
直接的な競争や敵対的買収によってではありません。むしろ、徐々に衰退させることによってです。
エージェント型プログラミングとAIを活用した運用は急速に成熟しています。かつてフルマネージドのインフラストラクチャに支払っていたプレミアムは、四半期ごとにその正当性を主張するのが難しくなっています。ベースラインワークロードは自社保有のキャパシティまたは低コストのVPSプロバイダーに移行し、バーストやエッジケースは依然としてハイパースケールキャパシティを一時的に借用します。クラウドの請求額は「基盤プラットフォーム」から「圧力解放弁」へと縮小するでしょう。
生成AIはすでに開発者のためにアプリケーションコードを作成しています。今や、自信を持ってセルフホスティングを可能にする運用ランブック、セキュリティポリシー、コンプライアンス証拠を作成しています。ソフトウェアエンジニアリングの仕事が一夜にして消えるわけではありませんが、その根本的な性質は変化しつつあります。パブリッククラウドもまた死滅するわけではありません。真のバーストキャパシティ、特殊なネットワークファブリック、そして自社で構築できない、あるいは構築しないコンプライアンス自動化といった、最も防衛可能な領域へと縮小していくでしょう。
その他のすべては別の場所へ移動します。実証済みのパターンとコスト感度を持つ安定したワークロードは、新しい三位一体の要素によって「食い尽くされる」でしょう。AIを活用した運用、成熟したオープンソースツール、そして安価なグローバルVPSキャパシティが、インフラストラクチャの経済性を書き換えています。クラウド時代は終わりを迎えているのではありません。それは「適切なサイズ」になりつつあるだけなのです。
