科技快速發展,詐騙集團的手法也再升級!現在只要AI有了語音樣本,幾秒鐘就能複製一個人聲音,近期美國就發生大量AI語音詐騙案,詐騙集團透過電話,假冒被害人的親友騙取財物。
台灣也出現了AI語音詐欺案例,詐騙集團為了節省成本,開始使用AI語音誘騙受害者加入投資社團,這類AI能辨識人類語意、情緒,與被害人對答如流,誘騙受害者主動加入詐騙投資社團。
美國聯邦貿易委員會(Federal Trade Commission)警告,近期美國不斷發生,使用AI語音進行的「家庭緊急事件詐騙」。
詐騙集團利用AI複製人聲,讓詐騙手法更可信,有愈來愈多家長受騙上當。
美國AI語音詐欺大量發生!7成受害者難辨真假
「媽!救救我,我被抓走了。」美國有一名母親珍妮佛,接到一通陌生電話,話筒卻傳來15歲女兒的哭聲,喊著自己被綁架了。這名媽媽和她的女兒不斷對話,過程中她從未懷疑這可能是「AI語音」,因為這聲音實在太像了。
這名媽媽說,話筒那端的哭聲、對答方式、啜泣方式,幾乎都和我記憶中的女兒完全吻合。詐騙集團要求100萬美元的贖金,珍妮佛掛斷電話後趕緊向丈夫確認,並連繫上女兒,她才驚覺自己差點被騙。
詐騙集團透過社群軟體或影音平台,盜取被害人的個資和聲音範本,製作出以假亂真的語音。美國資安公司McAfee Labs的統計9個國家的用戶,發現每4個人,就有1人曾碰過AI語音詐欺。
詐財理由包含遇到「碰到車禍」、「遭竊」、「遺失錢包和手機」、「旅遊時碰上急難狀況」,藉此來騙取被害者家人匯款。有近七成的受害者表示,他們沒有信心能分辨AI語音的真假。
台灣也有AI語音詐騙 甜美女聲誘騙投資
「您好,我們是理財調查小組…」甜美的女聲,邀請加入投資社團,其實電話那頭沒有真人,全都是預錄好的語音訊息,利用AI語音辨識系統即時回話。
去年底台灣刑事局破獲首起AI語音詐欺案,非法投顧公司使用AI語音建模技術,隨機撥打電話給被害人。詐騙集團砸重金設計超過20種對話情境,在使用AI語音辨識技術,讓被害人和機器人對話,一不小心就會落入陷阱。
由於背後全是機器人在自動答覆,警方表示,該詐騙集團申請了155支門號,毫無顧忌地亂槍打鳥,警方盤點至少有70人受騙上當,甚至有婦人因此遭騙走2000萬元。
眼見耳聞不再為憑… AI聲音、表情都能複製
其實,用AI不只能變造聲音,甚至連人臉都能偽造。有外媒為了證明「眼見不一定為憑」,宣導預防假新聞,特別和知名導演Jordan Peele製作了美國前總統歐巴馬的假影片,透過AI模擬歐巴馬的聲音、臉孔,而且一切看起來都十分自然。
以下是該則「假影片」,不知道你能不能找出破綻?
日前,輝達執行長黃仁勳在Computex期間來台演講,也大秀引以為傲的AI技術。靠著GPU強大的運算能力,只要簡單輸入幾串文字,AI就能自動幫你生成語音、虛擬主播。
延伸閱讀:團購買iPhone,竟意外成詐欺幫兇?銀行帳戶全遭凍結 警方揭開「假網拍」手法
如何預防AI語音詐欺?
要如何預防AI語音詐騙呢?台北市刑警大隊說明,透過深偽(DeepFake)等AI軟體製作的合成語音,可能讓受話的一方難辨真偽,碰到類似情況,應透過其他管道聯繫對方,確認真實性,「只要多一層警覺,謊言就能不攻自破。」
警方也表示,這類AI詐欺,也會觸犯刑法第339-4條的加重詐欺罪。以電腦合成或其他科技方式製作他人不實影像、聲音或電磁紀錄之方法而犯詐欺罪者,處1年以上、7年以下徒刑,得併科100萬元以下罰金。
本文暫不授權媒體夥伴