AIがAIを防ぐ時代へ…グーグル「CodeMender」が示す、サイバー攻防の最前線

ビジネスジャーナル 6 時 前
Facebook Icon Twitter Icon
AIがAIを防ぐ時代へ…グーグル「CodeMender」が示す、サイバー攻防の最前線の画像1UnsplashのFlyDが撮影した写真

●この記事のポイント
・グーグルがAIで脆弱性を自動修正する「CodeMender」を発表。生成AIによる攻撃が急増する中、防御もAI化が進む。
・攻撃AIが数分でエクスプロイトを生成する時代に、企業は自動防御エージェント導入を加速。AI対AIの攻防が現実化。
・勝敗を決めるのはAIの性能ではなく、信頼とデータ共有。防御AIが社会インフラとして機能できるかが次の焦点となる。

 2025年10月7日、グーグルが発表した新技術が、サイバーセキュリティの常識を塗り替えようとしている。その名は「CodeMender(コードメンダー)」。AIが自動でアプリの脆弱性を調査・修正し、セキュリティパッチまで生成するという、自律的な防御エージェントだ。

 一見すると開発者支援ツールのように思えるが、その本質はまったく異なる。グーグルが目指すのは、“人間を介さずにシステムを守る”という新たなサイバー防衛構造の構築だ。背景には、生成AIを悪用した攻撃が急増し、もはやAI対AIの攻防が現実のものになっているという事実がある。

●目次

  • 「AIが攻撃を仕掛け、AIが防御する」──新たな戦場の始まり
  • グーグル「CodeMender」が担う“自動防御”の仕組み
  • “攻撃AI”の台頭──闇市場で拡がる「Auto Exploit」
  • “AI vs AI”の最前線──勝つのは攻撃か、防御か

「AIが攻撃を仕掛け、AIが防御する」──新たな戦場の始まり

 かつてハッカーがシステムの脆弱性を突くには、高度な知識と多くの時間が必要だった。だが、いまや生成AIがそのプロセスを自動化している。

「イスラエルの研究チームが2025年夏に公開した報告によれば、OpenAIの『openai-oss』やアリババの『Qwen』などの大規模言語モデル(LLM)をローカル環境で動かすことで、攻撃用プログラム(Auto Exploit)を数分で生成できることが確認されました。

 これにより、個人レベルでもサイバー攻撃が可能になり、世界中でAIを利用した攻撃の事例が相次いでいます。従来のマルウェア開発では、コード作成・テスト・展開まで数日から数週間を要していましたが、生成AIは過去の攻撃コードや既存の脆弱性情報を学習しており、攻撃対象の仕様を与えれば最適なエクスプロイトコード(脆弱性を突くコード)を瞬時に出力できるようになりました。しかも、モデルをローカルで動かすことで検知を逃れ、匿名で攻撃を仕掛けることも可能なのです」(ITジャーナリスト・小平貴裕氏)

 AIがAIを武装化している――。この現実を前に、グーグルは防御側の切り札として「CodeMender」の開発を急いだ。

グーグル「CodeMender」が担う“自動防御”の仕組み

 CodeMenderは、グーグルの最新AIモデル「Gemini Deep Think」を基盤として開発された。このモデルは、自然言語の理解力とコード解析能力を兼ね備え、アプリケーションのコードを深く読み込み、脆弱性の検出・デバッグ・修正を一貫して自動で実行する。

主な機能は以下の3つだ。

 ・脆弱性スキャン
 アプリケーションのコードや依存ライブラリを解析し、セキュリティ上の欠陥を特定する。従来の静的解析ツール(SAST)よりも文脈理解に優れ、コード間の依存関係まで考慮した検出が可能。

 ・自動修正とパッチ生成
 検出した脆弱性に対し、AIが自ら修正版コードを生成し、セキュリティパッチを自動的に適用する。修正内容は人間のレビューを経て本番環境にデプロイできる設計になっている。

 ・継続学習による強化
 修正履歴や攻撃トレンドを継続的に学習し、より高度な防御ロジックを自律的に形成。新たな脆弱性が発見された際には、世界中の開発者に対して共通パッチを自動配信することも想定されている。

 この仕組みを使えば、開発者が気づく前にAIが自動で不具合を見つけ、修正してくれる。グーグルは「AIが攻撃者より速く動けるようにすることが、次世代のサイバー防衛の鍵になる」と説明している。

“攻撃AI”の台頭──闇市場で拡がる「Auto Exploit」

 一方、ダークウェブでは「AIハッキング・ツール」と呼ばれる新しい闇市場が急速に拡大している。そこでは、生成AIを使って攻撃用コードを自動生成し、ランサムウェア攻撃やフィッシング詐欺を効率化するツールが売買されている。

「例えば、『Auto Exploit』という生成AIベースの攻撃フレームワークでは、標的企業のシステム構成を入力するだけで、AIが脆弱性を探索し、最適な侵入経路を提示します。攻撃者は、それをほぼワンクリックで実行可能です」(同)

 さらに、AIによる“ソーシャル・エンジニアリング”も進化している。人間の声を完全に再現し、取引先や上司を装って情報を引き出す「ボイスフィッシングAI」も登場。技術的脆弱性がなくても、“人”という最大の脆弱点を突く攻撃が容易になっている。

 つまり、防御の対象は「コード」だけではなく、「人間の判断」や「運用プロセス」にまで広がっているのだ。

 このようなAI攻撃の急増を受け、企業側でもAIによる自動防御の導入が進んでいる。すでに、アメリカや欧州を中心に複数のスタートアップが「AutoPatch」「DefAI」「VulnFix」といった自動修正AIをリリースしており、“AIセキュリティエージェント”市場が新たな成長分野となりつつある。

 市場調査会社Allied Market Researchによれば、AIを活用したサイバー防御市場は2024年に約180億ドル規模に達し、2030年には600億ドルを超えると予測されている。特に、金融・通信・クラウドサービス企業など「24時間稼働が求められる業種」で導入が加速している。

 クラウドサービスを提供する企業にとって、システム停止は致命的だ。それゆえ、「AIによる自動防御」は単なるコスト削減ではなく、事業継続の生命線と位置づけられている。

“AI vs AI”の最前線──勝つのは攻撃か、防御か

 AIが攻撃し、AIが守る──。その戦いは、まるで自律進化する軍拡競争のようだ。攻撃側のAIは「創造的」である。既存のルールを破り、未知の手段で侵入経路を探る。

 一方、防御側のAIは「規律的」である。安全性と整合性を維持しながら、既知のルールに基づいて修正を行う。この構造的な非対称性が、攻撃側を常に一歩先に進ませてきたのが現実だ。

 しかし、CodeMenderのようなシステムが登場したことで状況は変わりつつある。AIが攻撃コードを学ぶのと同様に、防御AIも“攻撃のパターン”を学び、自己修復のスピードと精度を高めている。グーグルはCodeMenderを自社クラウド「Google Cloud Security Stack」に統合し、クラウド利用企業が自動的に防御を享受できる仕組みを構築する予定だ。

 最終的な勝敗を決めるのは、AIそのものの知能ではなく、「人間がどちらのAIに権限を与えるか」だ。攻撃AIを制御できず拡散させるか、防御AIを共通インフラとして広く展開できるか──社会全体の選択が問われている。

 セキュリティ研究者の一人は次のように語る。

「AIは人間の作業を自動化するだけでなく、“攻撃と防御の速度”を変えた。いま重要なのは、誰がより多くのデータとコンテキストをAIに与えられるかだ。攻撃AIはオープンデータから学ぶが、防御AIは企業内部のコードにアクセスできる。つまり、守る側の情報共有が進めば進むほど、AIは強くなる」

 この言葉が示すように、AI戦争の本質は「知識の非対称性」にある。企業や政府が連携し、防御AIに十分な学習機会を与えられるかどうかが、今後の勝敗を左右する。

 AI同士が戦う時代に、最も問われるのは“信頼”だ。ユーザーがAIを信じ、AIがユーザーを守る。その関係をどう設計するかが、サイバーセキュリティの新たなテーマとなる。

 グーグルのCodeMenderは、単なる技術的革新ではなく、AI時代における「信頼のインフラ」の一端を担う存在だ。それは、もはや人間が全てを理解・管理できない領域で、AIに“任せる勇気”を持てるかどうかを社会に問う試みでもある。AI vs. AIの戦いは、単なる技術競争では終わらない。それは、人類がAIとどう共存するかという哲学的な問いへとつながっている。

(文=BUSINESS JOURNAL編集部)

もっと詳しく