【ディープフェイクの被害者は女性が殆ど】悪用例や対策紹介

 

2019年だけでもネット上では14,000件ものディープフェイク動画がネット上で検知されました。

 

ディープフェイクを簡単に説明すると、動画の中に登場する人の顔を全く別の人の顔に移し替えてしまう事の出来る高度のAI技術の事をいいます。もとは映画製作の為に開発されたものですが、最近はより精度が高く巧妙になり、さらに誰でも使う事ができるアプリまで出てきています。

 

この記事ではディープフェイクの例や見分け方、危険性や悪用例、そして私達一般人が悪用されないための対策を説明していきます。

スポンサーリンク


ディープフェイクの悪用例【被害者の殆どが女性】

上記の動画は極端な例(女性タレントとマッチョな男性)で、ディープフェイク技術が適応されています。この動画ではディープフェイクの技術が荒く、女性の顔写真のサンプルが少なければ少ないほど表情に違和感が出ますが、それでもこの技術はより進化したものに、よりユーザーがアクセスしやすいものになっていっているのが問題です。

 

被害に遭う対象はだんとつで女性です。アメリカで研究された統計発表を見るとディープフェイクの96%以上がアダルト動画に女優や一般の女性の顔を張り付ける動画が円満していることが判明しています。突然アダルトサイトに自分の名前と顔が載る可能性は一般人でも充分にあり得る世界となったのです。

 

インターネット上では

  • いかに巧妙でリアルなディープフェイク動画を作るかのノウハウサイト、掲示板
  • 芸能人あるいは個人のディープフェイク動画作成を請け負う個人

などがすでに存在しており、アメリカでは個人でも自分のディープフェイク動画を見つけることができたら動画の製作者に対し訴訟を起こすことが可能となっています。

 

日本でも今後同じ問題が激増することは必至なので、ディープフェイクへの規制や法律、SNSに投稿する動画や画像の注意喚起を早急にする必要があります。

スポンサーリンク

悪用例①:証拠動画をねつ造

他にもディープフェイクは他人の顔を別の人間にすり替えることにより、冤罪の人間が有罪になってしまうほどの巧妙さをもつ技術で証拠動画をねつ造することも可能になります。

 

大きな事件が起きた際のアリバイ確証になるのは言うまでもありません。

悪用例②:実際に起こらなかった事実を作り上げることができる

上記の例に少し似ていますが、名の知れた有名人や権力者、政治関係者が問題のある発言をしている人間と顔をスワップされることでその人の信条や思想・意見関係なしにスキャンダルをねつ造することもディープフェイクの技術が高まるにつれ可能になってきます。

 

選挙演説に使われてしまうと出馬している人や国民両方が事実の確認や質問、それへの説明・釈明をしなければいけなくなる世界になります。

スポンサーリンク

ディープフェイクの見分け方と悪用されないための対策

 

ディープフェイクは今後「いかに少ない画像データをもとにリアルな動画を作るか」と「ディープフェイクであることを見分ける・防止するソフトウェア」とのイタチごっこになっていく事が予想されます。

被害者となり得るのは有名人だけではなく、一般人女性・男性関わらず誰でも可能性があるので現在最も有効な対策としては次が挙げられています:

  • インスタグラムやフェイスブックなどのSNSなどで自分が写っている動画・画像を投稿しない
  • もし投稿したとしても大きく顔が写っていたり、高画質のものは避ける
  • 自分の動画・画像を見れるのは信頼できる人だけにするようロックをかける

 

もしSNSが趣味で頻繁に写真を投稿するならば、上記を気を付けましょう。

 

人物の画像に慣れている人は、「なら首から下のみならば大丈夫」と思うかもしれませんが、今や女性の着ている服を見えなくする技術も容易に普通の人がスマホなどのアプリでもダウンロードできてしまうので危険です。

 

今後法律やアプリ、ディープフェイクに関するサイトに規制やモニタリングが実施される可能性が極めて高いと言えます。

 

ディープフェイクの被害者は女性が殆ど・悪用対策のまとめ

ディープフェイクは2019年から一般ユーザーに幅広く広がったAI技術ですが、悪用目的でビジネスになってしまっているのが現状です。

 

アメリカの統計によると96%がアダルト関連に使われ、被害者の殆どが有名・無名を問わず女性だということがわかっています。

 

ディープフェイクを依頼できる個人もネット上では活動しているので、悪用されないよう誰もが見れるSNSなどに注意し、何を投稿するかを意識していく必要があります。

 

スポンサーリンク