【2ch】トピックス!速報まとめたよ~^^

まとめサイトのまとめを行います!

ついにAIを使った詐欺事件が!娘そっくりの声を合成し身代金請求

   



AIのクローン音声を利用した誘拐未遂事件が勃発

 いまだにオレオレ詐欺(振り込め詐欺)がはびこっている中、AIを利用することで、より巧妙な犯罪事件が発生している。

 米国アリゾナ州で、AIによる音声合成技術を悪用して、子供の誘拐未遂事件が起きた。危うく騙されかけたその母親によれば、誘拐されたと助けを求める電話の声は、紛れもなく娘のものだったという。

 だが実際はAIが本人の声を合成し、本人そっくりに作り上げたクローン音声だったのだ。

 今、アメリカではこのような音声合成AIを利用した詐欺事件が日常的に起きているという。そんな新手の詐欺から身を守るにはどうすればいいのか?


https://static.mincure.com/karapaia/js/sp-articlepage.js
続きを読む
Source: カラパイア

 - ニュースetc