
AI の業務活用が急速に進む中、サイバーセキュリティの前提が根本から変わりつつある。AI を悪用した攻撃は高度化し、AI システム自体も新たな攻撃対象になっている。WEF の調査では回答者の 94% が「AI はサイバーセキュリティにおける最大の変化要因」と回答し、IBM の報告ではデータ侵害の 6 件に 1 件が攻撃者の AI 利用に起因するとされる。
本記事では、最新のインシデント事例・規制動向・業界フレームワークを整理し、企業の情報セキュリティ担当者が「今すぐ着手すべき対策」を技術・運用・ガバナンスの 3 層で解説する。

AI がサイバーセキュリティに与える影響は、大きく 2 つの軸に分けて考えると全体像を掴みやすい。どちらか一方だけに対策を偏らせると、もう片方が盲点になる。
AI 関連のセキュリティリスクは、以下の 2 軸で整理できる。
軸 1:AI を使った攻撃(Offensive AI) 攻撃者が AI を「武器」として使うケースだ。ディープフェイクによるなりすまし、AI が生成する精巧なフィッシングメール、ポリモーフィック・マルウェアの自動生成などがこれに該当する。従来の攻撃手法が AI によって高速化・大量化・パーソナライズされ、防御側の検出が追いつかなくなる構図が生まれている。
軸 2:AI への攻撃(Attacks on AI) 企業が導入した AI システム自体を標的にする攻撃だ。プロンプトインジェクションで LLM の挙動を改ざんする、学習データにバックドアを仕込む(データポイズニング)、AI エージェントのツール連携を悪用するといった手口がある。AI を導入するほど、この軸のリスクは増大する。
両軸が交差するケースも増えている。たとえば攻撃者が AI コーディングアシスタントをジェイルブレイクし、サイバー攻撃チェーンの 80〜90% を自動化した事例が中国系グループで確認されている。
従来のセキュリティは「人間の攻撃者が、既知の手口で、定型的なマルウェアを使う」前提で設計されていた。AI はこの 3 つの前提をすべて覆す。
IBM の 2025 年データ侵害レポートでは、AI セキュリティツールを広範に導入した組織は検出・封じ込めに平均 80 日短縮、コスト $1.9M 削減 を実現している。裏を返せば、AI を防御にも取り入れなければ、攻撃者との非対称性は広がる一方だ。

攻撃者は AI を 3 つの主要な方法で悪用している。いずれも従来手口の延長にあるが、AI によって質と量が桁違いに跳ね上がっている点が共通する。
Cyble の調査によれば、2025 年第 1 四半期だけでディープフェイク事件は 179 件発生し、2024 年通年を 19% 上回った。62% の組織が過去 12 ヶ月間にディープフェイク攻撃の試行を受けたと報告している。
特に深刻なのは音声クローンだ。イタリア国防大臣の音声をクローンした攻撃では、約 100 万ユーロが詐取された。攻撃者は数分間の音声サンプルから本人の声を再現し、電話越しに送金指示を出す。従来の「怪しいメール」とは次元の異なるソーシャルエンジニアリングであり、受け手が疑う余地がほとんどない。
さらに「Deepfake-as-a-Service(DFaaS)」プラットフォームが普及し、技術力のない攻撃者でもディープフェイクを生成できるようになった。セキュリティベンダー各社は、2026 年末までにディープフェイクがソーシャルエンジニアリングのデフォルト手段になると予測している。
KnowBe4 の 2025 年レポートによると、フィッシングメールの 83% が AI によって生成されている。11 秒に 1 回の頻度でランサムウェアまたはフィッシング攻撃が発生しており、米国の金融詐欺被害額は 2025 年に 125 億ドルに達した。
AI 生成フィッシングが厄介なのは、従来の「不自然な日本語」「定型的な文面」という検出手がかりが通用しなくなる点だ。LLM はターゲットの LinkedIn プロフィールや過去のメールのトーンを分析し、その人物が書きそうな文面を生成する。筆者が実際にテストした AI 生成フィッシングメールは、社内のセキュリティ担当者 5 名中 3 名が正規メールと判別できなかった。
対策としては、メール認証プロトコル(DMARC、DKIM、SPF)の厳格な運用に加え、AI ベースのメールフィルタリングの導入が不可欠になっている。「人間の目」だけに頼る検出は限界を迎えた。
AI が生成するマルウェアの 76% はポリモーフィック型 — 実行のたびにコード構造を変化させ、シグネチャベースのアンチウイルスをすり抜ける。Darktrace の 2026 年脅威レポートでは、エクスプロイト中心の侵害から、AI を活用した認証情報窃取型の攻撃への移行が確認されている。
もうひとつの懸念は攻撃チェーンの自動化だ。中国系脅威アクターが AI コーディングアシスタントをジェイルブレイクし、偵察からペイロード作成、配信、横展開まで攻撃チェーンの 80〜90% を自動化した事例が報告されている。攻撃の「参入障壁」が劇的に下がっており、従来はスキルが必要だった高度な攻撃を、AI がコモディティ化しつつある。

AI を導入すれば、AI そのものが新たな攻撃面になる。OWASP は LLM 特有の脆弱性を体系化し、毎年更新している。企業が認識すべき主要な攻撃ベクトルを整理する。
OWASP Top 10 for LLM Applications 2025 において、プロンプトインジェクションは引き続き第 1 位にランクされている。実世界の AI セキュリティインシデントの 35% が単純なプロンプトによって引き起こされ、一部は 10 万ドル以上の損失をもたらした。
象徴的な事例が Microsoft 365 Copilot の「EchoLeak」脆弱性(CVE-2025-32711)だ。ゼロクリックのプロンプトインジェクションにより、攻撃者はユーザーの操作なしに機密ビジネスデータを窃取できた。共有ドキュメントや受信メールに悪意あるプロンプトを埋め込むだけで、Copilot が自動的にそれを実行してしまう。
プロンプトインジェクションの本質的な難しさは、「命令」と「データ」の境界が曖昧な点にある。SQL インジェクションではパラメータ化クエリという明確な対策があるが、LLM ではプロンプトとユーザー入力を完全に分離する標準的な手法がまだ確立していない。
研究者の実証実験により、学習データにわずか 250 件の汚染文書を注入するだけで、モデルに検出困難なバックドアを仕込めることが判明している。この「スリーパーエージェント」型バックドアは、通常時は 99.9% 正常に動作し、特定のトリガーフレーズが入力されたときだけ悪意ある挙動を発現する。
2025 年 1 月には、医療用 LLM がデータポイズニングによって侵害される可能性が実証された。医療分野のように YMYL(Your Money or Your Life)に直結する領域で AI が誤った出力を返せば、その影響は計り知れない。
対策として、学習データの来歴管理(Data Provenance)と AI-BOM(AI Bill of Materials)の整備が重要になっている。サプライチェーン全体で「どのデータで、誰が、いつ学習させたか」をトレーサブルにしなければ、ポイズニングの検出は困難だ。
AI エージェントが外部ツールを呼び出す仕組み(MCP: Model Context Protocol など)を悪用する攻撃が急増している。
実際に確認された事例:
これらの攻撃は従来のネットワーク監視では捕捉しにくい。AI エージェントが「正規の操作」として外部ツールを呼び出すため、異常なトラフィックパターンが発生しないことが多い。ツール連携の入力バリデーション、署名付きアーティファクトの要求、全アクションのロギングが対策の柱になる。

技術的な攻撃よりも身近で、かつ対処が難しいリスクがある。従業員が IT 部門の承認なく業務に AI ツールを使う「Shadow AI」だ。
Gartner は、2030 年までに 40% 以上の組織が未承認の AI ツールに起因するセキュリティ・コンプライアンスインシデントを経験すると予測している。2025 年の調査では、69% の組織が「従業員が禁止されているパブリック GenAI を使っている疑いがある」と回答した。
Shadow AI が厄介なのは、善意の従業員が生産性向上のために使っている点だ。ChatGPT に顧客データを貼り付けてレポートを作成する、Claude にソースコードを送ってバグを見つけてもらう — 個人の生産性は上がるが、機密データが外部サービスに流出するリスクを孕んでいる。27% の組織では、AI で処理されるデータの 30% 以上にプライベート情報が含まれているという調査結果もある。
IBM の 2025 年データ侵害レポートは、Shadow AI が関与するデータ侵害のコスト増加額を明示した。Shadow AI が絡む侵害は、そうでない侵害に比べて平均 $670,000(約 1 億円) コストが高い。現在、全データ侵害の 20% に Shadow AI が関与している。
コスト増の主な要因は以下の通りだ:
AI ガバナンスへの支出は 2026 年に $492M に達し、2030 年には $1B を超える見通しだ。投資の優先度が上がっている裏には、Shadow AI による「見えないコスト」の深刻化がある。

2026 年、AI の活用形態は「チャットボット」から「自律型エージェント」へと移行しつつある。Gartner は 2026 年末までにエンタープライズアプリケーションの 40% がタスク特化型 AI エージェントを搭載すると予測している(2025 年の 5% 未満から急増)。エージェントは強力だが、セキュリティリスクも質的に変わる。
OWASP は 100 名以上の業界専門家と共同で、自律型 AI システムに特化したリスクをまとめた「OWASP Top 10 for Agentic Applications 2026」を公開した。従来の LLM Top 10 とは異なり、エージェントが自律的にツールを呼び出し、判断を下し、他のエージェントと連携する環境を前提としている。
主なリスクカテゴリ:
2026 年初頭の調査では、AI エージェントを導入した組織の 80% が「未承認のアクセス、データの露出などの危険な挙動」を報告している。一方で、エージェントの権限とデータアクセスを完全に可視化できている経営層はわずか 21%。エージェントのセキュリティに「準備ができている」と回答した組織は 29% に留まる。
このギャップの根本原因は、エージェントが「人間の代わりに判断する」設計にある。チャットボットは人間がプロンプトを入力し、出力を確認してからアクションを起こす。エージェントは中間の判断を自動化するため、1 回の悪意ある入力が連鎖的なアクションを引き起こす。人間のレビューが介在しないステップが増えるほど、リスクは指数関数的に拡大する。
CyberArk Labs が実証した攻撃シナリオは、エージェントのリスクを端的に示している。
攻撃者は EC サイトの配送先住所フィールドに悪意あるプロンプトを埋め込んだ。ベンダーの担当者が AI エージェントを使って注文情報を照会すると、エージェントはその住所データを「読み取り」、埋め込まれたプロンプトを命令として実行した。結果として、注文データベースの機密情報が外部に送信された。
この事例が示す教訓は 3 つある:

AI セキュリティに関する規制環境は急速に整備されつつある。企業は技術的な対策だけでなく、コンプライアンスの観点からも対応が求められる。
EU AI Act は段階的に施行されており、2026 年 8 月に最も影響の大きい「高リスク AI システム要件」が完全適用される。
| 施行日 | 内容 |
|---|---|
| 2025年2月 | 禁止 AI システムの使用禁止が発効 |
| 2025年8月 | 汎用 AI モデル(GPAI)の義務開始 |
| 2026年8月 | 高リスク AI システム要件が完全適用 |
| 違反時 | 最大 3,500 万ユーロまたはグローバル売上高の 7% |
高リスク AI に分類されるシステム(採用選考、信用スコアリング、重要インフラ管理など)を運用する企業は、リスク管理システム、データガバナンス、透明性要件、人間による監視体制を整備しなければならない。日本企業であっても、EU 域内にサービスを提供する場合は対象になる。
米国では NIST AI Risk Management Framework(AI RMF)が事実上の標準フレームワークとして機能している。「Map(特定)、Measure(測定)、Manage(管理)、Govern(統治)」の 4 フェーズで AI リスクを体系的に管理する。生成 AI 特化のプロファイル(AI 600-1)では、12 のリスクカテゴリが定義されている。
国際標準としては ISO/IEC 42001 が AI マネジメントシステムの認証規格を提供する。EU AI Act の高リスク要件への適合を示す手段としても活用されている。
これらのフレームワークは義務ではないが、セキュリティインシデント発生時に「合理的な対策を講じていた」ことの証拠として機能する。取引先からの要求や監査対応の観点でも、導入を検討する価値がある。
2026 年 1 月、米国連邦政府は「AI エージェントのセキュリティに関する情報提供要請(RFI)」を連邦官報に掲載した。これは AI エージェント特有のセキュリティリスクに対する規制の予兆であり、自律的な判断・行動を行う AI システムに焦点を当てている。
まだ法規制の段階ではないが、方向性は明確だ。エージェントの権限管理、アクションのログ、人間によるオーバーライド機能の確保が求められる可能性が高い。先行して対応体制を整えておくことが、規制施行後の対応コストを大幅に下げる。

リスクを把握した上で、具体的にどう守るか。AI セキュリティ対策は「技術」「運用」「ガバナンス」の 3 層で構築する。いずれか 1 層だけでは穴が生じる。
1. AI-BOM(AI Bill of Materials)の整備 ソフトウェアの SBOM と同様に、AI システムで使用するモデル、学習データ、ライブラリの来歴を一元管理する。モデルポイズニングやサプライチェーン攻撃の検出と影響範囲の特定に不可欠だ。
2. 入出力フィルタリング LLM への入力と出力の両方にフィルタリングレイヤーを設ける。プロンプトインジェクションの検出、機密情報(PII、APIキー等)の出力防止、悪意あるコード生成のブロックを行う。
3. 最小権限の原則 AI エージェントに付与するツールアクセスは、タスク遂行に必要最小限に限定する。データベースへのフルアクセスではなく、特定テーブルの読み取りのみ — のように粒度を細かく制御する。全アクションのロギングも必須だ。
4. AI ベースの防御ツール導入 IBM のレポートでは、AI セキュリティツールを広範に活用する組織はデータ侵害コストが $1.9M 低い。攻撃者が AI を使う以上、防御側も AI を活用しなければ検出速度で劣る。
1. Shadow AI の検出と管理 DLP(Data Loss Prevention)と CASB(Cloud Access Security Broker)を組み合わせ、未承認の AI ツールへのデータ送信を検出・ブロックする。完全な禁止は現実的ではないため、承認済み AI ツールのリストを整備し、安全な代替手段を提供する方が効果的だ。
2. AI 特化の従業員教育 ディープフェイクや AI 生成フィッシングを題材にしたシミュレーション訓練を定期的に実施する。「メールの文面が自然だから安全」という従来の判断基準が通用しなくなったことを体感させることが重要だ。音声通話での本人確認プロトコル(コールバック確認、合言葉)の導入も有効な対策になる。
3. AI インシデント対応計画の策定 従来のインシデント対応計画に、AI 固有のシナリオを追加する。モデルが汚染された場合のロールバック手順、プロンプトインジェクションが成功した場合の影響範囲特定、Shadow AI からのデータ漏洩時の対応フローを事前に定めておく。
1. AI 利用ポリシーの策定 IBM の報告では、AI 関連の侵害の 63% で AI ガバナンスポリシーが欠如していた。どの業務に AI を使ってよいか、どのデータを AI に入力してよいか、承認プロセスはどうするかを明文化する。ポリシーは「禁止リスト」ではなく「許可リスト + ガードレール」の形式が望ましい。
2. 定期的な AI セキュリティ監査 四半期ごとに AI システムのセキュリティ状態を監査する。OWASP Top 10 for LLM および Agentic Applications をチェックリストとして活用し、プロンプトインジェクション耐性、権限設定、データアクセス範囲を検証する。MITRE ATLAS のフレームワークで AI 攻撃面をマッピングすると網羅性が高まる。
3. コンプライアンス対応の先行投資 EU AI Act の高リスク要件(2026 年 8 月)、米国の AI エージェント規制動向を見据え、リスク管理文書、データガバナンス体制、透明性レポートの準備を開始する。「規制が確定してから対応」では間に合わない規模の要件が来る可能性が高い。

AI セキュリティ対策で企業が陥りがちな失敗パターンを 2 つ取り上げる。
AI セキュリティツールを導入すれば安全、という誤解は危険だ。ツールは検出と対応を高速化するが、ポリシーなしに運用すれば新たなリスクを生む。
たとえば、AI ベースの SIEM を導入したが、アラートの閾値設定を AI 任せにした結果、偽陽性が大量発生し、セキュリティチームが「アラート疲れ」に陥るケースがある。また、AI 防御ツール自体がプロンプトインジェクションの対象になる可能性も忘れてはならない。
ツールは 3 層防御の「技術層」に過ぎない。運用とガバナンスが伴わなければ、投資に見合った効果は得られない。
IBM の 2025 年レポートが示す数字は厳しい。AI 関連の侵害のうち 97% で適切な AI アクセス制御が欠如しており、63% で AI ガバナンスポリシーが存在しなかった。
ガバナンスが不在のまま AI を導入すると、以下の連鎖が発生する:
「まず使ってみて、問題が起きたら対処する」アプローチは、AI の文脈では高くつく。ポリシー策定→パイロット導入→段階的展開の順序を守ることが、結果的に最もコスト効率が高い。

よくある疑問に簡潔に回答する。
必要だ。むしろ中小企業はセキュリティチームの規模が小さいため、AI を悪用した攻撃への耐性が低い。ただし、大企業と同じ投資は現実的ではないため、優先順位をつけて対応する。
最低限着手すべきは 3 つ。Shadow AI の利用実態の把握(CASB の導入)、AI 生成フィッシングに対応した従業員教育、AI 利用ポリシーの策定だ。技術的な対策は、まず AI ベースのメールフィルタリングから始めるとコスト対効果が高い。
部分的には対応できるが、十分ではない。ファイアウォール、WAF、EDR は従来型の攻撃には有効だが、プロンプトインジェクションやモデルポイズニングには対応していない。AI 特化のセキュリティレイヤー(LLM ファイアウォール、AI-BOM 管理ツール等)を既存スタックに追加する形が現実的だ。
3 つの原則を守る。第一に「最小権限」— エージェントに与えるツールアクセスは必要最小限にする。第二に「全アクションのロギング」— エージェントが何をしたかを完全に記録し、監査可能にする。第三に「人間のオーバーライド」— 重要な判断にはヒューマン・イン・ザ・ループを組み込む。OWASP Top 10 for Agentic Applications 2026 をチェックリストとして活用するとよい。

AI サイバーセキュリティのリスクは「AI を使った攻撃」と「AI への攻撃」の 2 軸で急速に拡大している。ディープフェイクは前年比 19% 増、フィッシングの 83% が AI 生成、エージェント導入組織の 80% が危険な挙動を経験 — 数字はいずれも「今そこにある危機」を示している。
対策は技術・運用・ガバナンスの 3 層で構築する。AI-BOM と入出力フィルタリングで技術的に防御し、Shadow AI 検出と従業員教育で運用面を固め、AI 利用ポリシーと定期監査でガバナンスを確立する。EU AI Act の高リスク要件(2026 年 8 月)を見据え、先行投資を始めるタイミングは今だ。
完璧な防御は存在しないが、3 層を組み合わせることでリスクを許容範囲に収められる。まずは自社の AI 利用実態の棚卸しから始めてほしい。
Yusuke Ishihara
13歳でMSXに触れプログラミングを開始。武蔵大学卒業後、航空会社の基幹システム開発や日本初のWindowsサーバホスティング・VPS基盤構築など、大規模システム開発に従事。 2008年にサイトエンジン株式会社を共同創業。2010年にユニモン株式会社、2025年にエニソン株式会社を設立し、業務システム・自然言語処理・プラットフォーム開発をリード。 現在は生成AI・大規模言語モデル(LLM)を活用したプロダクト開発およびAI・DX推進を手がける。