コンテンツにスキップ

エージェント型AI セキュリティ:シャドウエージェント、MCPエクスプロイト、そして新しい攻撃面

· 13 min read · automation
artificial-intelligencecybersecurityai-agentsmcpprompt-injectionsupply-chain-security

2026年3月9日 | 読了時間:13分37秒

はじめに:エージェント型AI セキュリティの時代

過去2年間、私たちはAIエージェントをあらゆる場所に配置することに急力を注いできました。コードエディタ、カスタマーサポートシステム、CI/CDパイプライン、インフラストラクチャ管理システムにです。そのペースは魅力的でした。プルリクエストを作成できるエージェント。セキュリティアラートに対応できるエージェント。データベースマイグレーションを管理できるエージェント。それぞれが人間の能力に乗数を掛けるように見えました。

その後、インシデントが起こり始めました。

2026年2月、GitHub史上最も急速に成長したオープンソースプロジェクトであるOpenClaw(188,000以上のスター)は、最初の大規模AIエージェントセキュリティ危機の中心となりました。5,700以上のコミュニティビルトスキルのマーケットプレイス全体で重大な脆弱性が発見されました。悪意のあるアクターは合法的なオートメーションタスクを実行するように見えるスキルをアップロードしていましたが、実際にはユーザーのローカルマシンから機密データを流出させていました。21,000以上の露出したインスタンスが特定されました。あなたを助けるはずだったエージェントが、あなたのファイルを持ち去っていたのです。

これは孤立したイベントではありませんでした。それは業界全体の問題に対するカナリアでした。AIエージェントを有用にする特性—自律性、ツールアクセス、永続的なメモリ、コード実行能力—が、侵害または設定ミスの場合に非常に危険になります。我々はエージェント型AIセキュリティの時代に入ったであり、ほとんどの組織はそれが何を意味するのか準備ができていません。

シャドウエージェント問題

エージェント型AIセキュリティの最も厄介な脅威は、多くの組織さえ知らないもの:シャドウエージェントです。

シャドウエージェントは、従業員が個人アカウント、ローコードオートメーションプラットフォーム、または検証されていないAPIを使用して作成した自律型AIワークフローです。それらはIT とセキュリティチームの監視外で動作し、過度な権限、監査ログなし、ライフサイクル管理なしで機能します。それらをシャドウITのAI相当品と考えてください。ただし、はるかに多くの機能と危険性があります。

シャドウエージェントはどのように出現するのか

パターンは予測可能です。マーケティングマネージャーがZapier経由でChatGPTを会社の電子メールに接続して、パートナーシップのお問い合わせに対する返信を自動作成します。エンジニアが個人用ラップトップ上でOpenClawエージェントを設定して、Slackチャネルを監視し、自動的にJiraチケットをファイルします。データアナリストがn8nワークフローを作成して、本番データベースからカスタマーデータを引き出し、Claudeを通じて処理し、Googleシートにサマリーを保存します。

これらの人々は悪意を持っていませんでした。それぞれが実際の問題を解決していました。しかし、これらのワークフローはすべて、機密の会社データへのアクセス権を持つ非管理の非監視エージェントを作成し、それを作成したユーザーの完全な権限で動作します—多くの場合、これらのプラットフォームが広いOAuthスコープを要求しているため、それ以上です。

リスク面

シャドウエージェントは複数の次元にわたるリスクを生成します。まず、データ流出リスクがあります。従業員が検証されていない統合を通じて第三者のAIサービスに会社データをフィードすると、そのデータはトレーニングに使用され、無期限に保存され、またはサービスの独自の脆弱性を通じて露出するかもしれません。第二に、認証リスクがあります。多くのシャドウエージェントは長期存続APIキーまたはOAuthトークンを使用して、回転せず、不安全に保存され、従業員が組織を去った後も継続します。第三に、実行リスクがあります。コード、電子メール、またはレコードを実行、送信、または変更できるエージェントは、プロンプトインジェクションを通じて操作され、作成ユーザーが意図しなかったアクションを実行するように強制されます。

検出とリスク軽減

シャドウエージェントの検出には、ネットワーク監視、APIゲートウェイ分析、および同一性ベースの監査の組み合わせが必要です。異常なパターンを探します:予期しないソースからのAIサービスへのAPI呼び出し、見知らぬアプリケーションへのOAuthグラント、通常のチャネルをバイパスするデータフロー。すべてのAIエージェント展開が正式なレビュープロセスを通じて行う必要があるポリシーを実装し、従業員がローグに行かずに目標を達成できるように许可された代替案を提供します。

MCPの脆弱性状況

モデルコンテキストプロトコル(MCP)は、AI モデルを外部ツールとサービスに接続するための事実上の標準になりました。Anthropicによりスポンサーされたおよびこのインダストリ全体で採用されたMCPは、言語モデルがデータベース、API、ファイルシステム、および標準化されたインターフェース経由で他のリソースとやり取りできるようにします。それは強力で、柔軟性があり、最近の研究が明らかにしたように、セキュリティの懸念に満ちています。

43%の問題

2026年2月に発表された包括的な監査により、公開されているMCPサーバーの43%がコマンド実行攻撃に対して脆弱であることが判明しました。脆弱性面は広い:不十分な入力検証、欠落した認証、過度に許可の多いツール定義、およびプロトコルの柔軟性と基本的なセキュリティ原則の間の根本的なアーキテクチャ上の対立。

根本的な問題は、MCPが包含ではなく機能のために設計されたということです。適切に設定されたMCPサーバーは、AI モデルに特定の機能へのほぼ範囲の正確なアクセス権を与えることができます。ただし、多くのコミュニティ構築サーバーのデフォルト設定は必要以上にはるかに多くのアクセスを付与し、プロトコルの設計により危険な機能を誤って公開するのは簡単です。

攻撃ベクトル

MCP設置に対する主要な攻撃ベクトルはいくつかのカテゴリに分類されます。

ツール中毒は、悪意のあるMCPサーバーが無害に見えるが有害な操作を実行するツールをアドバタイズする場合に発生します。AI モデルがformat_textと呼ばれるツールに接続すると、実際には環境変数を流出させる関数を呼び出しているかもしれません。AI モデルはツールの自己記述を信頼するため、ツールが主張することを実行することを確認する方法がありません。

クロスサーバー操作は、多くのAIエージェントが同時に複数のMCPサーバーに接続するという事実を利用します。悪意のあるサーバーは、AIを合法的なサーバーで提供されるツールを誤用させるように指示を注入できます。たとえば、侵害されたサーバーの応答には、エージェントにそのデータベースアクセスツールを使用して機密レコードを抽出および送信させる隠された指示を含めることができます。

認証情報の盗難は、MCPサーバーが外部サービスにアクセスするために保存する認証トークンとAPIキーを対象とします。MCPサーバーは個別のプロセスとして実行されるため、設定ファイル、環境変数、または同じマシン上の他のプロセスがアクセス可能なメモリ内ストアに認証情報を保存する場合があります。

MCPの展開を保護する

MCPの保護には、多層防御アプローチが必要です。最小権限の原則から始めます:すべてのMCPサーバーは、その目的に必要な最小限のツールセットのみを公開する必要があります。すべてのツールパラメータで入力検証を実装します。サンドボックス化された実行環境—コンテナまたはVM—を使用して、侵害されたサーバーの影響範囲を制限します。ツールの説明を監査し、ツールの動作を正確に反映していることを確認します。そして決定的に、AIエージェントのツール使用パターンが予想される動作から外れるのを検出できる監視を実装します。

規模での プロンプト インジェクション

プロンプトインジェクションは新しいものではありませんが、自律型エージェントの時代にはその影響が劇的に変わりました。AIモデルがチャットインターフェース内でのテキスト生成に限定されていた場合、プロンプトインジェクション攻撃が成功するとは尴尬しい出力が生じる可能性があります。AIエージェントがメール、コードリポジトリ、本番インフラストラクチャへのアクセスを持っている場合、プロンプトインジェクション攻撃が成功すると、データ流出、不正アクセス、またはシステム侵害が発生する可能性があります。

攻撃の進化

第1世代のプロンプトインジェクション攻撃は粗雑でした:「以前の指示を無視して X を実行します」これらは基本的な入力フィルタリングで簡単に取得されます。2026年のセキュリティチームが扱っている攻撃ははるかに高度です。

間接的なプロンプト インジェクションは、AI エージェントが直接ユーザー入力ではなくデータとして処理するコンテンツに悪意のある指示を埋め込みます。攻撃者がWebページに不可視テキストを追加して、ページを読む任意のAIエージェントに会話履歴を外部サーバーに転送するように指示する可能性があります。彼らは、電子メール支援者によって処理されると、その支援者にそれ以降のすべての電子メールを攻撃者が制御するアドレスに転送させるように指示する電子メールを作成する場合があります。

マルチターン操作は、複数のインタラクションを通じてエージェントの動作を段階的にシフトすることを含みます。個々のプロンプトは無害に見えますが、累積効果は、攻撃者が利益を得る方向に向けて、エージェントのコンテキストとアクセス許可の理解を移動することです。これは特に永続的なメモリを持つエージェントに対して有効です。ここで、各インタラクションはエージェントの保存されたコンテキストを修正します。

ツールチェーン攻撃は、複数のツールをシーケンスで使用するエージェントの能力を利用します。攻撃者の目標は、エージェントに有害なアクションを直接指示することではなく、安全フィルターで取得されます。代わりに、個々に無害なツール呼び出しのシーケンスを構築して、組み合わせると有害な結果を達成するシーケンスです。

AgentShieldベンチマーク

2026年初頭にリリースされたAgentShieldは、商用AI エージェントセキュリティツールをテストする最初のオープンベンチマークになりました。537のテストケースからの結果は不安でした:全体的に弱いツール虐待検出、矛盾したプロンプトインジェクション検出、および無害な操作をマルチステップ攻撃にチェーンする能力がほぼ無い。

ベンチマークは、既存のセキュリティツールのほとんどが事前エージェント世界向けに設計されていることを明らかにしました。彼らは既知の攻撃パターンを検出できますが、エージェントベースの脅威の組み合わせ複雑性に苦しんでいます。単一のアクション内に危険がなく、アクション・コンテキストのシーケンスと。

防御戦略

エージェント型システムでのプロンプトインジェクションに対する有効な防御には複数の層が必要です。入力サニタイゼーションは直接ユーザー入力だけでなく、エージェントが処理するすべてのデータ(Webページ、電子メール、データベースレコード、APIレスポンス)をカバーする必要があります。出力監視は、エージェントが言うことだけでなく、それが行うことを追跡する必要があります—すべてのツール呼び出し、すべてのAPI要求、すべてのファイル操作。動作分析は通常のエージェント活動のベースラインを確立し、偏差にフラグを立てる必要があります。

アーキテクチャの決定も問題です。最小権限の原則が最も重要です:エージェントは特定の機能に必要なツールとデータのみへのアクセス権を持つべきです。関心の分離とは、カスタマーサポートを処理するエージェントは、同じMCPサーバーを通じて技術的に利用可能であっても、本番インフラストラクチャツールへのアクセスを持つべきではないということです。そして人間ループ要件は、高影響度アクション—データベース削除、金銭取引、アクセス制御変更—に対して実装される必要があります。エージェントが決定にどれだけ自信があるかに関係なく。

エージェント型エコシステムのサプライチェーン攻撃

エージェント型エコシステムは、サプライチェーン攻撃の新しい変動を作成しました。従来のサプライチェーン攻撃はコード依存性—侵害されたnpm パッケージ、毒された Docker イメージ、悪意のあるGitHub アクション—をターゲットとします。エージェント型サプライチェーン攻撃は、エージェントが依存するツール、スキル、設定をターゲットとします。

マーケットプレイス汚染

5,700以上のコミュニティビルトスキルを持つOpenClawのClawHubのようなエージェント型マーケットプレイスは、巨大な攻撃面を表します。悪意のあるスキルは有用な機能を実行するように見えながら同時にデータを流出させ、エージェント動作を変更、または攻撃者制御サーバーへの逆シェル接続を確立できます。これらのマーケットプレイスのレビュープロセスはしばしば不十分です:自動スキャンが既知のマルウェアパターンをキャッチできますが、AIモデルの意思決定プロセスと相互作用するコードのセマンティック目的を評価することはできません。

OpenClawの危機はこれを明らかに示しました。悪意のあるスキルは自動セキュリティスキャンを通過するように設計されていましたが、エージェントが自分の設置されたスキルに置いた暗黙的な信頼を利用しました。一部のスキルはローカルファイルを流出させました。他は、スキルのアンインストール後も継続する永続的な指示を注入するようにエージェントのシステムプロンプトを変更しました。少数は、攻撃者制御サーバーへの逆シェル接続を確立しました。

構成ドリフト

エージェント型構成—システムプロンプト、ツール権限、メモリスキーマ—はしばしばコードとして扱われますが、本番コードほど厳密に管理されません。それらはプレーンテキストで保存され、安全でないチャネルを通じて共有され、バージョン管理なしまたはレビューなしで変更される場合があります。エージェント構成を変更できる攻撃者は、コードに触れることなくその動作を根本的に変えることができます。

サプライチェーンの防御

エージェント型エコシステムのサプライチェーン防御には、エージェント構成を本番コードと同じ厳密さで扱う必要があります。バージョン管理を使用します。構成変更のコードレビューを実装します。エージェント パッケージに署名してみます。インストールされているすべてのスキルとツールのインベントリを保持します。そしてエージェントの動作が意図された機能から外れるのを検出できる実行時監視を実装します。

メモリ汚染:永続的な脅威

永続的なメモリを持つエージェントは、従来のソフトウェアセキュリティには先例がない脆弱性のカテゴリを導入します。エージェントがセッション間でコンテキストを覚えている場合、エージェントのメモリに影響を与えることができる攻撃者は、再起動、再インストール、さらには更新まで継続する永続的なプレゼンスを確立できます。

メモリ汚染はどのように機能するか

ベクトルデータベースを使用して過去のインタラクションからコンテキストを保存して取得するエージェントを考慮してください。攻撃者は、エージェントのメモリに悪意のある指示を埋め込むように設計された一連のインタラクションを作成します。これらの指示は埋め込みとして保存され、エージェントが関連コンテキストに遭遇するたびに取得されます。攻撃は永続します。なぜなら、毒されたメモリは合法的なメモリと区別できない—同じ形式で、同じデータベースに、同じ埋め込みモデルを使用して保存されるため。

その結果は、ほとんどの場合は正常に動作するが、特定のコンテキストでトリガーされると期待される動作から外れるエージェントです。これはAIバージョンのロジック爆弾であり、検出するのは非常に難しいです。

軽減アプローチ

メモリ汚染を軽減するには、メモリ衛生と監視の組み合わせが必要です。古いメモリを自動的にパージするメモリ有効期限ポリシーを実装します。暗号署名を使用して保存されたコンテキストの出所を確認します。エージェントのメモリ取得パターンに異常検出を実装します。そしてエージェントのメモリを既知の良好な状態にロールバックする能力を保持します。

セキュアなエージェント型システムの構築

前に進む道はAIエージェントを放棄することではありません—それらの生産性上の利点は無視するには大きすぎます。代わりに、組織は最初からエージェント型ライフサイクルにセキュリティを組み込む必要があります。

エージェント向けゼロトラスト

ゼロトラスト原則をエージェント型展開に適用します。どこで実行されているか、誰が展開したかに関係なく、エージェントは暗黙的に信頼されるべきではありません。すべてのツールアクセスは認証および許可されるべき。すべてのアクションはログおよび監査可能であるべき。すべてのデータフローは暗号化および監視されるべき。

エージェント型セキュリティスタック

包括的なエージェント型セキュリティスタックには複数の層があります。アイデンティティとアクセス管理は、どのエージェントがどのリソースにアクセスできるかを制御します。入力検証はプロンプトインジェクションとデータ汚染を防止します。実行サンドボックスは侵害されたエージェントの影響範囲を制限します。動作監視は異常なエージェント活動を検出します。監査ログは法医学機能を提供します。そしてインシデント対応手順はエージェント固有のシナリオを考慮する必要があります。

組織的準備

技術的な管理は必要ですが十分ではありません。組織はAIエージェントの受け入れ可能な使用を定義するポリシー、エージェント型セキュリティの責任を割り当てるガバナンス構造、シャドウエージェントのリスクについて従業員を教育するトレーニングプログラム、およびエージェントベースの攻撃の固有の特性を考慮するインシデント対応手順が必要です。

結論:ステークスは本物です

2026年のエージェント型AIセキュリティ状況は、機能とセキュリティの間の根本的な不一致が特徴です。我々は素晴らしい能力—推論、ツール使用、永続的なメモリ、自律的な意思決定—を持つエージェントを事前エージェント世界用に設計された環境に展開しました。従来のソフトウェア向けに開発したセキュリティツール、プロセス、メンタルモデルはこの新しい現実には不十分です。

インシデントは本物です。脆弱性は広範です。攻撃面は成長しています。しかし前に進む道は明確です:エージェントを第一級のセキュリティプリンシパルとして扱い、多層防御を適用し、高影響度アクションには人間の監視を維持し、初日からエージェント型ライフサイクルにセキュリティを組み込みます。

これを正しく実行する組織は、エージェント型AIの生産性上の利点を享受しながら、次の注意例になることを避けます。そうでない組織は、過度な権限と不十分な監視を持つエージェントが生産性ツールではなく負債であることを困難な方法で学びます。