ホーム / メールマガジン /

そんなことは言ってない!

そんなことは言ってない!

by 管理人
この投稿のコメントは受け付けていません。
ちょっと前にアダルトビデオに

芸能人の顔を当てはめてネットで公開した人が

逮捕されていました。



これはAIを活用したディープフェイク

と呼ばれる技術で、

その人が実際にはおこなっていない動作をさせたり、

口に出していない言葉を発言しているかのように

リアルタイムで表現したり、

映像を残すことができます。



ディープフェイクはアメリカ大統領選でも

悪用されるのではないかと警戒されていましたが、

身近でも悪用される可能性が出てきています。



動画の場合にはまだ多少の不自然さが残りますが、

音声だけの場合にはディープフェイクだと

見破るのはほぼ不可能なようです。



明らかにその人が喋らなさそうな言葉ならまだしも、

いかにも言いそうなことだったら、

簡単に信じてしまいそうですよね。



最近では女性蔑視発言とか騒がれていた森さんですが、

もし音声ディープフェイクの技術を使って、

致命的な発言を造られて流されたりしたら・・・。



森さんが「私はそんなことは言っていない!」

と主張してもきっと誰も信じませんよね。。



これは政治家に限った話ではなく、

われわれ経営者もディープフェイクによって騙されたり、

自分が話していないことを造られたりする

リスクがでてきています。



恐ろしいことにディープフェイクで

造られた音声には捏造の痕跡がなかったり、

警察や裁判所も本物の発言として、

認めてしまう場合もあるようです。



いま話題のクラブハウスの音声データは、

中国政府にアクセスされる可能性があるという

報道がありました。



話している内容だけでなく声そのものも、

盗まれてしまうリスクがありますね。。



どう見ても本物にしか思えない音声や動画が、

偽物の可能性があるということを、

頭の片隅に置いておきましょう。



【質問】それ、本当に本物ですか?



オレオレ詐欺も、バージョンアップされるかもしれません。

この記事を共有する

コメントは締め切りました