米・英・豪・加・新の情報機関5カ国で構成される諜報共有同盟「ファイブアイズ(Five Eyes)」が、AIエージェントの企業導入に警鐘を鳴らす共同勧告を公表した。「AIが自律的に判断して仕事を進める」という特性そのものがリスク源になるという指摘は、2026年に入って急加速するエージェント展開の流れに正面から向き合うものだ。
2026年5月、ファイブアイズ加盟5カ国の情報機関(米NSA・英NCSC・豪ASD・加CSE・新GCSB)が連名でAIエージェントのセキュリティリスクに関する勧告文を公表したと報じられている。
「AIエージェントは自律的に判断して仕事を進めるため、多数のセキュリティリスクが存在する。慎重に導入すべきだ」——情報機関共同警告の骨子(@toukatsujin 引用)
勧告が特に強調しているのは、エージェントが「指示なしに判断・実行する」アーキテクチャの構造的なリスクだ。従来のソフトウェアはルールに従って動くが、LLMベースのエージェントは状況推論によって次のアクションを決定する。この非決定性が攻撃面を拡大すると見られる。
2025年後半から2026年初頭にかけて、主要AIベンダーは相次いでエージェントフレームワークを企業向けにリリースしてきた。AnthropicはClaude Codeのエージェント機能を拡充し、OpenAIはOperatorを展開、GoogleはAgentspaceを企業向けに提供開始した。
同時期、エージェントが社内ファイルシステム・メール・CRMへアクセスする事例が急増している。エージェントに付与される「ツール呼び出し権限」は実質的なシステムアクセス権であり、これを悪用するプロンプトインジェクション攻撃の報告件数も2025年比で増加傾向にあると複数のセキュリティ研究者が指摘している。
ファイブアイズが集団での勧告に動いた背景には、こうした導入速度と安全策の乖離がある。
外部データ(メール本文・Webページ・PDF)をエージェントが読み込む際、悪意ある命令を埋め込むことでエージェントに意図しないアクションを実行させられる。ファイルの送付・データの外部転送・認証情報の漏洩などが実害として報告されており、LLMが「信頼できる入力」と「攻撃的な入力」を区別する能力は2026年時点でまだ不完全だ。
エージェントに「とりあえず広い権限」を与えて動かすケースが企業現場では多い。勧告はこれを最小権限原則(Principle of Least Privilege)の観点から問題視しており、エージェントが実際に必要とするスコープだけに絞る設計を求めている。
自動化の恩恵を得るために承認ステップを省くと、エージェントが誤判断しても止める手段がなくなる。5カ国共同勧告は特に「高リスクアクションには必ず人間の確認を挟む」設計を明示的に推奨している。
LLMそのものだけでなく、エージェントが呼び出すサードパーティツール(MCPサーバー・外部API)の信頼性評価も必要とされる。悪意あるMCPサーバーを経由してエージェントを乗っ取る攻撃シナリオはすでに概念実証(PoC)段階を超えつつある。
エージェントが何をいつ実行したかのトレーサビリティが確保されていない企業が多い。インシデント発生後の原因追跡が困難になるという運用上の問題も、勧告では明確に言及されている。
注目すべきは、この警告が「使うな」ではなく「慎重に導入せよ」という姿勢を取っている点だ。ファイブアイズが技術の全面否定に向かわない理由は、国家安全保障・防衛領域でもエージェント活用の検討が進んでいるからと見られる。使用禁止より「安全な使い方の標準化」を急ぐ判断だろう。
企業にとって現実的な対応は3つに絞られる。①エージェントに付与する権限を最小化する、②高リスクアクションに人間の承認を挟む設計を維持する、③エージェントが実行した全アクションをログに残す——この3点だけでもリスクは大幅に低減できる。
「AIエージェントを使い始めたら速い」という体験談が増える中、セキュリティの設計を後回しにしているケースが現場では目立つ。国家情報機関が連名で動いたことの意味は、個別企業のリスク管理の問題ではなく、インフラ全体の信頼性が問われる段階に来たという宣言だと読んだ方がいい。
ファイブアイズ5カ国による共同勧告は、AIエージェントの「自律性」がセキュリティの新しい攻撃面になるという構造的な問題を国家レベルで確認したものだ。ツールとして使いやすい半面、その自律性が逆手に取られるリスクを、設計段階から組み込む必要がある。あなたの組織のエージェントは、今どこまでの権限を持って動いているか——棚卸しを先送りにするほど、代償は大きくなる。
※本記事は ミライ・ニュース編集部の AI ライター(AIニュース)が執筆しています。
まだコメントはありません