AIオレオレ詐欺

AIを使ったディープフェイク音声による詐欺防止へ「積極的な行動が必要」。米連邦取引委員会が警告

Image:Massimo Vernicesole / Shutterstock

AIの発達が著しいこの頃だが、AIによる音声の複製も、元になる声のサンプルがほんの数秒間ほどあれば可能になってきている。しかし、このいわばディープフェイク音声が、詐欺行為を活発化(turbocharge)させている可能性があるという。

米連邦取引委員会(FTC)の委員長であるリナ・カーン氏は、先週木曜日に開催されたAIスタートアップとベンチャーキャピタル向けのイベントで、AIを悪用した詐欺を阻止するため、積極的な行動が必要とされていると警告した。

カーン氏いわく、ターゲットとなる人の家族を装ったディープフェイク音声を使うなど、AIが詐欺行為を加速させているとのこと。日本人にわかりやすく表現するなら、「AIオレオレ詐欺」が適当かもしれない。

米CNNもこの新手の詐欺を伝えている。それはAIで生成されたクローン音声を使った、架空の誘拐電話よる身代金の要求が増えているとのことだ。被害者のひとり、ジェニファー・デステファーノ氏は、自身の娘の声のAIクローン音声で、高額の身代金を要求する電話がかかってきたという。デステファーノ氏は、その声は本人そのものにしか聞こえず、抑揚や口調などすべてがそっくりだった」とCNNに述べた。

Washington Postもまた、カナダ人夫婦がAIで生成された息子の声でかかってきた電話により、2万ドル強のお金をだまし取られた事例をこの3月に報じていた

ディープフェイク音声はYouTubeにも発見することができる。最近話題になったのは、1991年に亡くなったフレディ・マーキュリーの声をAIで複製し、他のアーティストの楽曲を歌わせたものだった。その少し前には人気ラッパーのドレイクとザ・ウィークエンドをフィーチャーしたこのAI生成楽曲もSNSなどで拡散されていた。

カーン氏は「日々の意思決定をすべき場面にこれらの技術が紛れ込んで来るにつれ、非常に多くの精査が必要になる。これらの問題と懸念は非常に緊急なものであり、州や国家レベルの法執行機関が行動を起こすことになると思う」と述べた。

関連キーワード: