
AIセキュリティスタートアップIrregular、OpenAIとAnthropicモデルのサイバー攻撃能力検証へ Sequoiaから8000万ドルを調達
4億5000万ドルの問い:なぜシリコンバレーのエリートたちはAIの「負の側面」に巨額の賭けをするのか
9月のある水曜日の朝、人工知能企業がより強力なモデルの開発を競い合う中、比較的無名のイスラエルのスタートアップが、8000万ドルの軍資金と「AIが世に出る前に、その危害能力をテストする」という厳粛な使命を掲げ、ステルスモードから脱却した。
旧Pattern LabsであるIrregularは、セコイア・キャピタルとレッドポイント・ベンチャーズが主導し、WizのCEOであるアサフ・ラパポートも参加した大規模な資金調達ラウンドを発表した。この取引に近い情報筋によると、同社の評価額は約4億5000万ドルに達するという。これは、従業員が36人にも満たず、今週までほとんどの業界ウォッチャーが知らなかった企業としては驚くべき数字である。
しかし、Irregularの足跡は、すでに現代の最も重要なAIシステムに刻み込まれている。同社のセキュリティ評価は、OpenAIのo3およびo4-miniモデルのシステムカードに大きく記載されており、Anthropicは、Claude 3.7 Sonnetの評価において彼らの共同作業を評価している。AIの脆弱性検出を評価するための彼らのSOLVEフレームワークは業界標準となり、世界で最も先進的なAIシステムがリリース前にどのようにテストされるかを静かに形作っている。
シリコンバレーの優秀な頭脳たちがAI戦争を懸念するとき
この資金調達は、テクノロジー業界が人工知能のリスクをどのように見ているかの根本的な変化を反映している。以前の懸念がバイアスや誤情報に集中していたのに対し、今日の懸念はより深い。それは、自律的なサイバー攻撃、高度な脆弱性発見、そして従来の防御を圧倒する可能性のある複数のAIエージェント間の連携が可能なAIシステムに対する懸念である。
共同創設者のダン・ラハブ氏は業界ウォッチャーに対し、「まもなく、多くの経済活動が人間とAI、そしてAIとAIの相互作用から生まれるようになるだろう。そしてそれは、複数の点でセキュリティスタックを破壊するだろう」と説明した。彼のパートナーであるCTOのオメル・ネボ氏は、軍事的な正確さで彼らのアプローチを説明した。「我々は、AIが攻撃者と防御者の両方の役割を担う複雑なネットワークシミュレーションを行っている。新しいモデルが登場したとき、防御がどこで持ちこたえ、どこで持ちこたえないかを見ることができるのだ。」
これは理論的な推測ではない。OpenAIは今夏、企業スパイ行為への懸念から、内部のセキュリティプロトコルを見直した。その一方で、フロンティアAIモデルは、ソフトウェアの脆弱性を特定する上でますます高度な能力を示しており、これらの能力は防御と攻撃の両方の目的に役立つ。最近の評価では、これらのシステムが高度な攻撃を計画できることが示されているが、人間の助けなしでは実行に至らないことが多い。
AIシステムが規模を拡大するにつれて予期せぬ能力が出現する「創発的行動」の出現は、セキュリティ専門家が「動く標的」問題と表現する状況を生み出した。良性の目的のために訓練されたモデルが、サイバー戦争に関する高度な推論から他のAIシステムとの自律的な連携に至るまで、開発者が意図しなかったスキルを自発的に開発する可能性がある。
デジタルレッドチームの科学
Irregularのアプローチは、現実世界のネットワークアーキテクチャを模倣した精巧なシミュレーション環境に重点を置いている。AIモデルを有害な反応に騙そうとする単純な「ジェイルブレイク」の試みとは異なり、彼らのテストは、AIエージェントが現実的なネットワーク防御を通過し、権限を昇格させ、特定の目的を達成しなければならない複雑な多段階シナリオを含む。
同社のSOLVEスコアリングシステムは、AIモデルが脆弱性の発見と悪用のタスクをどのように処理するかについて、詳細な評価を提供する。このフレームワークは業界全体で採用が進んでおり、主要なAI研究所や政府機関が実施する評価にも登場している。英国政府とAnthropicの両方が、セキュリティ評価でSOLVEを参照しており、このフレームワークがAIセキュリティ評価の事実上の標準となる可能性を示唆している。
Irregularを従来のサイバーセキュリティ企業と一線を画すのは、彼らが「創発的リスク」に焦点を当てている点である。それは、まだ現実世界では顕在化していないが、AIの能力が進歩するにつれて出現する可能性のある脅威だ。彼らのシミュレーション環境は、現在のモデル能力だけでなく、継続的な訓練や他のシステムとの相互作用を通じて発生する可能性のある将来の行動をもテストする。
業界アナリストは、Irregularが主要な研究所からリリース前のAIモデルに早期にアクセスできることが、大きな競争優位性をもたらすと指摘している。この立場により、彼らは一般公開前にセキュリティ脆弱性を特定し、現実世界でのインシデントを未然に防ぐことができる可能性がある。
セキュリティ軍拡競争を加速させる市場原理
AIセキュリティ市場は前例のない成長を経験しており、2028年までに支出は200億ドルを超えると予測されている。この急増は、AIシステムの利用拡大と、関連するリスクへの意識の高まりの両方を反映している。AIが生成したディープフェイクによる数十億ドル規模の詐欺被害や、AIによって促進される重要インフラへの攻撃に関する懸念といった最近の事件は、セキュリティを後回しにされていたものから、展開の前提条件へと格上げした。
規制圧力は、AIセキュリティソリューションの採用を加速させている。2025年8月に施行される欧州連合のAI法は、高機能AIシステムに対して包括的なリスク評価を義務付けている。同様の要件が各管轄区域で浮上しており、標準化された評価フレームワークと第三者によるセキュリティ評価への需要を生み出している。
競合状況を見ると、統合が活発化するであろう断片化された市場であることがわかる。主要なサイバーセキュリティプラットフォームは、専門的なAIセキュリティ企業の買収を開始した。シスコはRobust Intelligenceを、パロアルトネットワークスはProtect AIを、チェック・ポイントはLakeraを買収した。これらの動きは、AIセキュリティには従来のサイバーセキュリティのアプローチを超えた専門的な知識が必要であるという認識を示している。
Irregularは評価プロバイダーであると同時に潜在的な標準設定者としての地位を確立しており、この統合の波の中心に位置している。主要なAI研究所や政府機関との関係は、現在の収益を超えた戦略的価値をもたらしている。情報筋によると、同社はステルスモードから出現したばかりであるにもかかわらず、その収益はすでに年間数百万ドルに達しているという。
不確実な情勢下における投資の示唆
機関投資家にとって、IrregularはAIの能力そのものというよりも、AI展開のインフラ層への賭けを意味する。AIシステムがより強力で遍在するようになるにつれて、セキュリティ層はますます重要かつ価値のあるものとなる。
同社の4億5000万ドルの評価額は、純粋な財務的考慮事項よりも戦略的考慮事項を反映している。OpenAI、Anthropic、Google DeepMindからのリリース前モデルへのアクセスにより、IrregularはAIエコシステムにおいて独自の地位を占めている。このアクセスは、業界標準への影響力の高まりと相まって、大きなプラットフォーム価値を生み出す可能性を秘めている。
市場の動向は、包括的なAIセキュリティソリューションを提供できる企業を優遇する。複数のAIシステムが自律的に連携する「AIとAIの相互作用」への移行は、従来のアプローチでは対処できないセキュリティ上の課題を生み出す。Irregularのマルチエージェントシミュレーションへの注力は、この移行に対して彼らを有利な位置につけている。
リスク要因には、主要なAI研究所が社内セキュリティ機能を開発し、外部評価サービスへの需要を減少させる可能性が含まれる。しかし、独立した評価に対する規制要件や、高度なAIセキュリティテストの複雑さを考慮すると、専門プロバイダーへの需要は継続するだろう。
先見の明のある投資家は、いくつかの主要な指標を監視すべきである。Irregularが評価だけでなく、ランタイムセキュリティ制御へと事業を拡大すること、彼らのフレームワークが規制当局に採用されること、そして、AIシステムがより高度になるにつれてテスト能力を拡張する能力である。
AIファーストな世界における今後の道筋
Irregularの出現は、セキュリティに関する考慮事項が展開決定をますます左右するAI業界の広範な成熟を反映している。同社がステルスモードからユニコーンに近い評価額へと急速に台頭したことは、AIセキュリティが必然性と機会の両方であることを投資家が認識していることを示している。
この資金調達発表は、AI業界がイノベーションの速度と安全性の考慮とのバランスに苦慮している中で行われた。最近の評価では、現在のAIシステムはサイバー攻撃を支援できるものの、熟練した人間のオペレーターと比較すると依然として限界があることが示唆されている。しかし、その軌跡は、サイバーセキュリティの状況を根本的に変える可能性のある、より能力が高く自律的なシステムへと向かっている。
AIシステムが重要インフラ、金融サービス、国家安全保障のアプリケーションでより普及するにつれて、セキュリティを正しく確保することの重要性は高まり続けている。Irregularのような企業は、AIの能力が展開される前にその限界をテストする重要なゲートキーパーとして機能する。
Irregularへの8000万ドルの投資は、AIセキュリティが重要な市場カテゴリーになるという広範な信頼を示している。直接的なAI能力よりもAIインフラへのエクスポージャーを求める投資家にとって、セキュリティ評価とランタイム保護を提供する企業は、急速に進化する状況において魅力的な機会となる。
Irregularが初期の評価での成功をプラットフォームの優位性に転換できるかどうかは、依然として未解決の問題である。しかし、AIの進歩とセキュリティの必要性の交差点に位置する彼らの立場は、社会がますます強力になる人工知能システムの危険と恩恵をどのように管理していくかを形作る上で、彼らが影響力のある役割を果たすことを示唆している。