AI音声クローン詐欺が増加していると専門家が警告

 

米国では、オレオレ詐欺が起こり得るとしています。

日本ではオレオレ詐欺が進化することになります。

 

 

(自動翻訳)

AI音声クローン詐欺が増加していると専門家が警告

AIを活用した音声クローン詐欺は、テクノロジーの進歩に伴い、過去1年間で増加しています

 

(FOXニュース動画)

人工知能の危険性とは?
マイク・ブラウン上院議員(共和党)は、イブニング・エディットで、テクノロジーに対する懸念の高まりについての洞察を提供しています。

 

詐欺師は、人工知能(AI)ツールを使用して、ソーシャルメディアで標的にした個人の声を複製し、家族や友人にパニックに陥った電話をかけ、無意識のうちに電話の受信者に金銭や機密情報へのアクセスを納得させることを期待しています。

なりすまし防止とクレジットスコア監視を手掛けるIdentityIQの最高イノベーション責任者であるマイク・シューマック氏は、FOX Businessの取材に対し、「AIは長い間存在しており、ソフトウェア企業はしばらくの間、テクノロジーを進歩させるためにAIを使用してきました。この種のサイバー犯罪の領域にゆっくりと参入し始め、過去1年ほどの間に突然急速に増加しているのを目の当たりにしてきました。」

「高度なフィッシング詐欺、標的型フィッシング詐欺など、AIが特定のメールを生成するために使用されている場所や、ターゲットが誰であるかについて非常に具体的な言葉遣いが見られる場所など、多くのことを見てきました」と彼は付け加えました。「AIによる音声複製詐欺も過去1年間で増加しています。これは非常に恐ろしいトピックです」

音声クローン詐欺を行う詐欺師は、ソーシャルメディアやインターネット上の他の場所で人の声を録音したり、オーディオクリップを見つけたりします。「必要なのは3秒だけですが、10秒あれば、非常にリアルな声のクローンが撮れます」とScheumack氏は説明します。次に、音声サンプルを音声を複製するAIプログラムを介して実行され、詐欺師は、詐欺のスクリプト方法に応じて、クローン音声に笑い、恐怖、その他の感情を追加するだけでなく、入力したことを何でも言わせることができます。

 

ジェネラティブAIツールがディープフェイク詐欺の増加につながる

IdentityIQのマイク・シューマック氏は、AIを活用した音声クローン詐欺が増加しており、個人や家族が警戒すべき対策を講じる必要があると警告しています。 (写真提供:Annette Riedl/picture alliance via Getty Images / Getty Images)

 

AI音声クローン作成プログラムがいかに洗練されているかを示すために、IdentityIQは、この記事の著者が今年の春にポッドキャスト「Fox News Rundown」で行ったインタビューから音声サンプルを取得しました。彼らは、その音声サンプルを使用して、架空の自動車事故の後、パニックに陥った家族が現金アプリの送金を要求する電話をかける様子のAI音声クローンを作成しました。

「お母さん、話したいことがあるの。私、今日、私が取り組んでいる記事のために誰かにインタビューするつもりだったのですが、交通事故に巻き込まれました。私は大丈夫ですが、今はあなたの助けが必要です。私は、相手車のバンパーにぶつかりました。彼らは、損傷を修復するための費用を賄うために1,000ドルを欲しがっています、さもなければ、警察に電話して保険に報告するでしょう。彼らは今お金を必要としており、私はあなたの助けを必要としています。Zelleで1,000ドルを送ってもらえますか?やり方を教えてあげるよ」と声のクローンは言った。

Scheumack氏によると、詐欺師からの音声クローン通話は、通常、この例よりも短く、金銭、アカウントへのアクセス、その他の機密情報の要求を伝える際に、「今は話せません」などと言って、潜在的な会話を遮断しようとする可能性があると指摘しています。

「詐欺師の目的は、あなたを闘争か逃走かに引き込み、あなたの愛する人が何らかの問題を抱えているという切迫感を心に抱かせることです。ですから、そのような状況に対処する最善の方法は、電話を切ってすぐに愛する人に電話して、それが彼らであるかどうかを確認することです」と彼は説明しました。

人工知能(AI)とは?

IdentityIQによると、犯罪者は、ソーシャルメディアから引き出された、誰かが話している数秒の音声クリップを必要とするだけで、不気味なほどよく似た声のクローンを作ることができます。 (FNC /フォックスニュース)

 

Scheumack氏は、IdentityIQがキャンプにいた娘からパニックに陥ったと思われる電話を受けた個人にインタビューを行った最近の例を挙げましたが、実際にはAIが生成した娘の音声クローンでした。詐欺師は、娘がキャンプに行くことについてソーシャルメディアに投稿した投稿を見つけ、それを利用して電話をより現実的にしました。

また、AI音声詐欺を行う詐欺師は、AIプログラムを使用して、ソーシャルメディアやその他の場所での音声や動画の投稿など、個人や企業に関する情報をインターネットで検索し、無意識のうちに被害者に説得力のある電話をかけるために使用できる詳細を求めているとScheumack氏は指摘しています。

「恐ろしいのは、これはあなたの隣人がこんなことをしているのではないということです...これは洗練された組織であり、1 人でやっているわけではありません。ソーシャルメディアで調査し、人々に関するデータを収集している人々がいます。彼らは、あなたの声をつなぎ合わせようとしているのと同じ人々ではありません。あなたは、その声を複製する他の誰かを持っています。あなたは、実際に電話をかけるという行為を犯すことになる他の誰かを持っています。そして、詐欺がうまくいっている場合は、誰かが被害者の家に来てお金を拾うのです。

UPS、「ポーチ海賊」による荷物の盗難を防ぐためにAIを使用

IDIQのマイク・シューマック氏は、家族がオンラインに投稿する内容に注意し、緊急に必要な資金を要求するパニックの電話に対応することに注意するよう勧めています。 (写真:CHRIS DELMAS/AFP via Getty Images) / Getty Images)

 

AI音声クローン詐欺の被害に遭わないために個人ができる対策として、Scheumack氏は、オンラインに投稿して一般に公開されているものを認識し、表向きは知り合いからの知らない番号からの緊急電話に対応する前によく考えるべきだと述べています。

「オンラインに投稿する内容には注意が必要です。それが最初のステップです」とシューマック氏は言います。「2番目のステップは、知らない番号から電話がかかってきて、それがあなたの愛する人だった場合、一般的には注意が必要です。知らない番号から電話がかかってきて、それが親戚や愛する人で、緊急の状況がある場合、それはあなたにとって危険信号です。ちょっと考えてみてはどうかしら」

FOX BUSINESSを外出先で入手するには、ここをクリックしてください

Scheumack氏は、ある種の緊急事態を理由に発信者が本当に家族であることを確認するために使用できる別のフレーズの使用によって促される、ある種のパスワードの実装を家族に提案することを家族に勧めました。