ディープフェイクとは、深層学習を用いて人物の顔・音声・映像をリアルに改ざん・合成する技術で、フィッシング詐欺やなりすまし攻撃などサイバーセキュリティ上の脅威として問題視される。
ディープフェイク(Deepfake) とは、深層学習(ディープラーニング)を用いて人物の顔・音声・映像をリアルに改ざん・合成する技術であり、フィッシング詐欺やなりすまし攻撃などサイバーセキュリティ上の脅威として問題視される。
ディープフェイクの中核には、GAN(敵対的生成ネットワーク) や オートエンコーダー といった深層学習アーキテクチャがある。GANは「生成器」と「識別器」の二つのモデルを競わせることで、本物と見分けがつかないほど精巧な偽映像を生成する。顔の差し替え(フェイススワップ)だけでなく、口の動きに合わせた音声合成、表情・視線の制御まで可能となっており、近年は生成AI(Generative AI)の急速な進化によって、一般ユーザーでも低コストで高品質なコンテンツを生成できる環境が整いつつある。
音声分野では「ボイスクローニング」と呼ばれる手法が普及しており、数十秒分の音声サンプルから特定人物の声を再現することが技術的に可能になっている。映像と音声を組み合わせることで、実在の経営者や政治家が発言していないことを語っているように見せる動画が作成され、実際の詐欺被害も報告されている。
ディープフェイクが特に危険視される理由は、従来の認証・信頼モデルを根底から崩す点にある。
ゼロトラスト・ネットワーク・アクセス(ZTNA)の考え方が示すように、「見えているものを信頼しない」という原則がいっそう重要になっている。AIガバナンスの観点からも、ディープフェイクはEU AI Act(EU人工知能規則)において透明性義務の対象として位置づけられており、ディープフェイクコンテンツであることの開示・ラベリングが義務づけられるなど、規制上の対応が求められている。
ディープフェイクへの対抗手段として、フォレンジック検出モデルの研究が進んでいる。瞬きのパターン、皮膚のテクスチャ、光の反射の不自然さといった微細な特徴を機械学習で検出するアプローチが主流だ。しかし、生成技術と検出技術は「いたちごっこ」の様相を呈しており、生成側の精度向上が検出側を常に上回るリスクがある。
組織的な対策としては以下が有効とされる。
HITL(Human-in-the-Loop)の考え方を組織プロセスに組み込み、AIが生成したコンテンツに対して人間が判断を介在させる仕組みを設計することも、被害を最小化するうえで現実的なアプローチとなる。
動画生成AI(Video Generation AI)の品質向上に伴い、ディープフェイクの脅威はさらに拡大すると予測される。一方でコンテンツ認証の国際標準化(C2PAなど)や、生成AIプロバイダーによる利用規約の厳格化も進んでおり、技術・制度・リテラシーの三層で対策を講じることが求められる局面に入っている。


タイのホテル・旅行業がAIでダイナミックプライシングを始める方法
AIシステムの脆弱性を攻撃者の視点で体系的にテストし、安全性リスクを事前に特定する評価手法。