メインコンテンツにスキップする

ディープフェイクとフェイク動画の広がる世界でネットの脅威から身を守る方法を解説

ディープフェイクがいかに狂っているかを示す顔の2つの画像が表示された画面

新たに出現したディープフェイクの世界

ディープフェイク動画は、「ディープラーニング」の「ディープ」と「偽物」を意味する「フェイク」を合わせた混成語です。ディープラーニングは、何層にもなる機械学習アルゴリズムによって、未加工の情報から高度な特徴を段階的に抽出する人工知能(AI)の手法です。人の顔といった非構造化データからの学習が可能です。例えば、AIは、私たちの体の動きからデータを収集できます。

そのデータを処理し、GAN(敵対的生成ネットワーク)を使ってディープフェイク動画を作成することが可能です。GANは、専用の機械学習システムの一種です。2つのニューラルネットワークにトレーニングセット(顔写真など)の学習を競わせ、同じ特徴を持つ新たなデータ(新たな「写真」)を生成させます。

こうしたネットワークは、トレーニングセットで生成した画像を分析し続けるため、そのフェイク画像はますます説得力がでてきます。ディープフェイクがより一層重大な脅威となっているのは、このためです。さらに、GANは、写真や動画以外の偽データも作成できます。事実、同じディープフェイク機械学習と合成技術を使って、フェイク音声を作り出すことも可能です。

ディープフェイクの例

話題を集めるディープフェイクの例には事欠きません。その1つが、俳優のジョーダン・ピールが、ディープフェイク動画について警告するために公開した動画です。オバマ元大統領の実際の場面の映像を使って、オバマ元大統領の声をまねた自身の声を合成しています。さらに、その合成動画を2つに分けて種明かしもしてみせました。彼が言わんとしたのは、目にしたものを疑う必要があるということです。

Facebookが(特にInstagramで)盗んだユーザーのデータを使って「未来をコントロールしている」と語るFacebookのCEOマーク・ザッカーバーグが登場する動画もあります。オリジナルの動画には、新たな動画の合成に十分な、たった21秒の、ロシアの選挙干渉について語っている部分が使われています。しかし、声まねはジョーダン・ピールのオバマ元大統領ほど上手くなく、フェイク動画であることが露見しました。

とは言え、不出来なフェイク動画であっても驚くほどの影響が及ぶ可能性があります。ナンシー・ペロシの「泥酔」動画はYouTubeで何百万回も視聴されましたが、それは単に動画の速度を人為的に遅くしてろれつが回っていないように聞こえる効果を狙ったフェイク動画でした。また、多くの女性著名人が、ポルノ映画やポルノ画像の出演者の顔を自らの顔に変えられて作られたリベンジポルノにいつの間にか「主演している」という状況に陥っています。

ディープフェイクの脅威 – 詐欺や恐喝

ディープフェイク動画は、政治的目的にも個人的報復にも利用されます。しかし、詐欺や恐喝の重要な企てに利用されることがますます増えています。

英国のエネルギー企業のCEOは、至急の資金送金を求める親会社の社長のディープフェイク音声によって 24万3千ドルをだまし取られました。偽の音声にあまりに説得力があったため、確認しようとは思わなかったのです。資金は、親会社の本社ではなく、第三者の銀行口座に送金されました。CEOは、親会社の「社長」にさらに送金を求められて初めて疑念を抱きました。今度は警戒して慎重になりましたが、時すでに遅し。送金してしまった資金を取り戻すことはできませんでした。

フランスでは、ディープフェイク技術を使わない新手の詐欺が発生しました。成り済ましの手口を使い、ジャン=イヴ・ル・ドリアン外務大臣の執務室と調度を忠実に再現して上級管理職を務める人々から数百万ユーロをだまし取りました。詐欺師のジルベルト・シクリは外務大臣に変装して、シリアにいるフランス人の人質解放のための身代金を出すよう裕福な個人や会社役員に要求した罪に問われ、目下裁判中です。

ディープフェイクの脅威と危険性

また、ディープフェイクの作者が、金を支払わなければ、ダメージを与えるディープフェイク動画を公開すると脅して企業の社長を恐喝することもあり得ます。あるいは、侵入者が最高情報責任者からのビデオ通話を合成するだけでネットワークに侵入し、従業員をだましてパスワードと権限を引き渡させることもあり得ます。後は、ハッカーが極秘データベースをくまなく引っ掻き回すことになります。

ディープフェイクポルノ動画は、インドのラーナー・アイユーブといった、職権乱用を告発する女性レポーターやジャーナリストを恐喝する手段としてすでに使われています。テクノロジーが安価になるにつれ、より多くのディープフェイクが恐喝や詐欺に使われるようになると予想されます。

ディープフェイクからどうやって身を守るか

ディープフェイク動画に対処する法整備もすでに始まっています。例えば、カリフォルニア州では、昨年可決された2つの法案でディープフェイクの一部が違法とされました。AB0602は、人物の画像を合成して、映っている人の同意なくポルノコンテンツを合成することを禁じ、AB-730は、選挙まで60日を切った期間に立候補者の画像を改変することを禁じています。

しかし、これで十分でしょうか。幸いにも、これまでずっと、サイバーセキュリティ企業がより多くのすぐれた検出アルゴリズムを考え出してきました。これらによって動画を分析し、偽造の過程で生み出されたわずかな歪みを見つけ出します。例えば、現在のディープフェイク合成者は2Dの顔を作り、それを動画の3次元に合うよう変形させます。鼻の先が向いている方向に注目すれば、決定的証拠が得られます。

ディープフェイク動画はまだ、私たちが自ら証拠を見つけられる段階にあります。ディープフェイク動画で次の特徴を探してみてください。

  • ぎこちない動き
  • あるコマから次のコマに移る間に照明が変化する
  • 肌の色合いが変わる
  • 不自然な瞬きがある、または、全く瞬きがない
  • 口の動きと言葉が合っていない
  • デジタルアーティファクト(デジタル処理によるノイズや歪み)がある

とはいえ、ディープフェイクは進歩しているため、目で見てもわからない可能性があり、優れたサイバーセキュリティプログラムが必要な場合もあるかもしれません。

最先端のフェイク防止技術

現在、新たな技術によって、動画制作者が作成した動画が本物であることを証明できるようになっています。暗号アルゴリズムを使って、設定した間隔で動画にハッシュを挿入できます。動画が変更されると、このハッシュが変わります。AIとブロックチェーンによって、動画の不正加工を防ぐ電子指紋を登録できます。透かしのある文書に似ていますが、動画で難しいのは、使用するために異なるコーデックで動画が圧縮された場合にハッシュがそれに耐えられるようにしなければならない点です。

ディープフェイクの企てを撃退するもう1つの方法が、特別に設計されたデジタル「アーティファクト」を動画に挿入して、顔検出ソフトウェアが用いるピクセルパターンを隠すプログラムを活用することです。このアーティファクトがディープフェイクアルゴリズムを鈍化させ、出来が悪くなるようにするため、ディープフェイクが成功する可能性を下げることができます。

セキュリティ手順を整えることこそが最大の保護

しかし、テクノロジーは、ディープフェイク動画から身を守る唯一の方法ではありません。基本的なセキュリティ手順を整えることが、ディープフェイク対策において驚くほど有効です。

例えば、資金支出の手順に自動チェックを組み込めば、多くのディープフェイクや同様の詐欺を食い止められます。また、次の対策も有効です。

  • 従業員や家族にディープフェイクの仕組みやそれらがもたらす課題について理解させる。
  • ディープフェイクに気付く方法を自分でも知っておき、周りの人にも理解させる。
  • メディアリテラシーを身に着け、質の良い情報源のみを使用するようにする。
  • 「信用するが、検証する」という基本的な手続きを徹底する。ボイスメールや動画に対して懐疑的な態度を取ることで絶対に騙されなくなるとは言えないが、多くの落とし穴を回避するのに役立つ。

自宅や会社のネットワークに侵入しようというハッカーの試みにディープフェイクが組み込まれるようになった場合、リスクを最小限抑えることに関していえば、基本的なサイバーセキュリティのベストプラクティスが決定的な役割を果たすことを覚えておいてください。

  • 定期的なバックアップを取ることで、ランサムウェアからデータを守ることになり、破壊されたデータを回復できるようにもなる。
  • 1つのネットワークまたはサービスに侵入されても、アカウントそれぞれに異なる強力なパスワードを使用していれば、他のネットワークやサービスへの侵入を防げる。Facebookのアカウントにアクセスされ、さらに他のアカウントへもアクセスされるというようなことは避ける。
  •  カスペルスキー プレミアムといった優れたセキュリティパッケージを使用して、自宅のネットワークやPC、スマートフォンをサイバー脅威から守る。このパッケージには、ウイルス対策ソフトウェアやハッキングされたWi-Fi接続をストップするVPN、ウェブカメラの保護も含まれている。

<h3>ディープフェイクの今後</h3>

ディープフェイクは進化し続けます。2年前までは、動きのぎこちなさや合成された人物が瞬きをしないといったことで、ディープフェイクビデオだと実に簡単に言い当てることができました。しかし、最新世代のフェイク動画は進化し、改良されています。

現在、1万5千以上のディープフェイク動画が存在すると推定されています。あるものは面白半分で作られ、あるものは私たちの考えを操ろうとするものです。しかし今や、たった1日か2日かで新たなディープフェイクを作成でき、その数は劇的に増加しています。

関連製品:

関連記事:

ディープフェイクとフェイク動画の広がる世界でネットの脅威から身を守る方法を解説

以前にハッカーが行っていた、政治家の顔をポルノスターの体に合成するような単純なレベルをはるかに超え、現在では、ハリウッド映画で使用される技術と同様のものを活用し、ディープフェイク動画によって標的の口に偽の言葉を言わせることが可能になっています。これにより、標的の評判を傷つけたり、さらには恐喝に利用することもできます。
Kaspersky logo