芸能人も被害に! AIで顔だけ別人に変えるフェイク動画「ディープフェイク」を見破る方法:じっくり聞いタロウ

公開: 更新: テレ東プラス

売れっ子から懐かしのスターまで、芸能人が驚きの近況を報告する番組「じっくり聞いタロウ~スター近況(秘)報告」(毎週木曜深夜0時12分放送)。1月30日(木)の放送では、最新アイコラ動画「ディープフェイク」の現状を大暴露!

jikkuri_20200201_02.jpg
アイコラとは、アイドルなどの顔写真を別人の体に合成した写真。これは肖像権侵害に当たる許されない犯罪行為だが、桜美林大学の平和博教授によると、アイコラが人工知能AIの発達によりとんでもない進化を遂げているという。

jikkuri_20200201_03.jpg
それがアイコラの動画版と言える「ディープフェイク」。これまでのアイコラは1枚の写真に対し写真1枚を加工するのに対し、ディープフェイクはさまざまなパターンの顔写真を約100枚以上用意。そこから人工知能で表情のパターンを作成してAVなどのエッチな動画と合成すると、あたかもその芸能人が出演しているかのようなフェイクAV動画が作れてしまうというのです。近年、このディープフェイクの被害に遭う芸能人やハリウッド女優が急増しているとか。

「SNSなんかでパッと流れてきて、それをチラッと見るくらいだと分からないかもしれない」と平教授。さらに、このディープフェイクは年々爆発的な進化を遂げ、その作成方法にも変化が。以前は数百枚の顔を読み込ませていたが、人工知能の進歩により最新のものだと顔写真1枚でディープフェイクが作成できてしまうという研究もあるのだそう。

また、ディープフェイクの悪用は芸能人だけでなく、一般人も犯罪に巻き込まれるケースが。別れた恋人へ仕返しするリベンジポルノ。このディープフェイクを使えば、写真だけで存在しない嘘のエッチ動画を作れてしまい、フェイク動画で相手を脅迫するという事件が起きる可能性もあるという。

jikkuri_20200201_04.jpg
さらに、人工知能の発達により人の声を元にして言ってもいないことをしゃべらせる「声のディープフェイク」も実現可能に。実際にヨーロッパでは親会社の社長の声で子会社の社長に電話をかけてお金を振り込ませるという被害も起きているとか。

jikkuri_20200201_05.jpg
そんなディープフェイクを見破る方法はあるのか?
「貼り付けた顔は、当初はまばたきまでは再現できなかったので、目は開きっぱなしという不自然さがあったんですけど、進化してくると貼り付けた顔でもまばたきする」そうだが、鼻の向きが若干ズレていることがあるという。また現在は、ディープフェイクをチェックするAIソフトも開発されているとか。何はともあれ、みなさんもディープフェイクの犯罪に巻き込まれないようにご注意を!

この放送は現在「ネットもテレ東」で配信中!

PICK UP