Log inSign up
  • HOME
  • Library
  • Episodes
  • Posts
  • Membership
00:00:00 / 00:00:00
【警廣服務中心】嘉縣警教你識破 AI 深偽(Deepfake)技術詐騙手法

【警廣服務中心】嘉縣警教你識破 AI 深偽(Deepfake)技術詐騙手法

警廣臺南分臺FM94.7
2024-05-0700:18:05
Available Platforms

Comments

☆訪嘉義縣警察局刑事警察大隊 侯崴翔組長

AI 科技盛行卻也因此讓犯罪集團廣泛運用深偽技術(Deepfake)進行詐騙等犯 罪活動,利用 AI 能夠深度學習與合成影音的技術,使詐欺手法更加擬真,加上詐騙廣告,投放速度比警方通報還快, 造成查緝上的困難,詐騙案件急速增加,所以今天要跟聽眾 朋友來介紹一下「AI 深偽(Deepfake)技術」詐騙手法。

Q1:是不是有實際案例可以來提醒各位聽眾朋友?
A1:有,首先跟聽眾朋友分享一則北部發生的實際案例: 一、案例: 前陣子新北市有一位李先生接到一通自稱是兒子的來電,說 自己換新手機,要求李先生加他的新 LINE 帳號。因電話傳 來的聲音與李翁兒子的聲音一模一樣,李先生不疑有他就加 了 LINE。隔天李先生又接到「兒子」撥打 LINE 語音通話給 李翁,聲稱缺錢購買電腦設備,要求李翁匯款 38 萬,到銀 行匯款時,行員覺得疑似詐騙就通報轄區警方到場,經過警 方回撥 LINE 語音要求「兒子」提供身分證字號、出生日期, 對方都能順利答對,但對於工作地點卻沒答對,警方進一步 要求李先生與「兒子」視訊通話,對方雖開啟視訊,但卻用 手遮住鏡頭,而且對方後來還察覺警方在場,立即掛斷電話。 李先生此時才恍然大悟,成功阻止詐團的陰謀保住存款。 二、「AI 深偽(Deepfake)詐騙」淺析: 2022 年起,世界各地陸續發現—詐騙集團也開始利用 AI 科技手法犯罪。例如,只要取得 3 秒鐘的人聲音檔,就可 第 2 頁 共 4 頁 以合成出假的語音,情緒基調和聲音都與本人極為相似;或 是在影片或圖片裡,擷取某張臉的面部特徵,就可以將這張 臉合成到另一個人的臉上。 除了變臉換聲的手法,AI 科技也可以利用圖片、影像、文字 等素材製造假訊息、假影片、假語音,或模擬出假公文、假 電子郵件等,使被害人(特別是年長者)誤信為真,進而依 照詐騙者的要求,提供個資、進行匯款、轉移資產。由於此 技術極易使人受騙,值得每個人提高警覺,以免憾事發生。

Q2:「AI 深偽(Deepfake)詐騙」的主要過程是什麼?
A2:「AI 深偽(Deepfake)詐騙手法」的過程大致有三種: 一、利用假造的影音圖文(眼見耳聞不再為憑) 上一代的詐騙,可能有許多漏洞可供辨識,比如電話那頭哭 訴被綁架的人,聲音可能根本不像你的小孩;或者,常見的 詐騙簡訊如「Hi 我是○○公司的○○○,有急事找你,麻 煩加一下 LINE ID」、「突然消失這麼久不聯絡是怎樣?加下 我 Line」,基於成本的考量,通常也只是這種罐頭式、漏洞 百出的萬用句型。同理,上一代的造假影音,若要高品質, 經常需要較高的成本投注在修圖、剪接之上,要不然經常都 是以品質低劣的影音充數。 但是,在 AI 的時代,詐騙、造假者可以用很低的成本,製 造出更能令人信服的虛偽資訊,可以製造出仿真度極高的虛 假影像和音訊,很容易讓民眾誤以為偽冒者是被害者本人、 親友或名人,引發社會治安的隱憂與製造假訊息,聽眾朋友 如與熟人通話察覺有異,請務必提高警覺。 二、利用人性弱點誘進詐騙陷阱 由於深偽技術可以用在合成擬真的影片或語音,甚至能結合 視訊功能,盜用師長或親友的聲音或面貌、謊稱自己陷入困 境,急需財務支援,或冒充企業高層,來針對下屬發布虛假 第 3 頁 共 4 頁 指示讓受害人感到擔憂……這都是利用受害人的同理心、同 情心、善良、單純、恐懼、粗心、貪欲等,誘導詐騙。 三、製造迫切感騙走你的錢 加入假冒的官方帳號好友,對方會要求你下載假的官方軟體 或是到假的官方網站填寫資料,一填寫可能就會導致個資外 洩;或者是掃描 QR code 的同時,會連結網站並被要求下 載惡意軟體,藉此騙取民眾個資。

Q3:民眾遇到「AI 深偽(Deepfake)詐騙」該如何自保?
A3:聽眾朋友如果發現疑似遇到 AI 詐騙,有以下六招自救 處理步驟: 一、保持冷靜,提高警覺 接到親朋好友傳訊息要求借錢或幫忙匯款,一定要提高警覺 並再透過其他管道(如打電話)向本人査證。 二、當場測試影像真假 1. 如果對方打電話 (1)接到以「00」(市話)或「+」(手機)開頭的來電號碼, 代表此通電話就是國際來電,就要提高警覺,並可洽各電信 事業設定拒接所有國際來話,以降低受騙風險。 (2) 如果對方自稱是某長輩親友,可提問一些自己與對方才 知道的事,測試是否為本人。建議與親友建立防詐專屬約定 密語,以確認身分。 2. 如果對方打視訊電話(可看到影像) 與未見過的人或自稱檢警公務人員視訊,可要求對方轉頭、 變換姿勢、在臉前揮手,就可藉由影像破綻分辨對方是否使 用深偽 AI 技術變臉,千萬不要因為聲音、影像逼真,就誤 認為話筒的那端,是自以為是的熟人而受騙上當。 三、切勿立即配合,做好帳密保護 1. 不論是接到電話、視訊電話、收到電子郵件,都先記下 第 4 頁 共 4 頁 對方的要求,不要馬上配合。 2.不要僅以來電聲音、LINE 文字或貼圖對話,就認定借錢的 是你所認識的朋友,平時也應該做好帳號保護,避免多個帳 號設定同組密碼,亦不要點選不明網址。 四、牢記:絕不輕易匯款、提供個資 絕不能按照對方指示操作 ATM 或網銀轉帳,也絕不能未經 查證就提供個資,包括銀行和郵局帳戶、信用卡號、地契、 房契等資產資料。(千騙萬騙離不開 ATM,要帳號、個資、錢 全部是詐騙) 五、立即報案,拒絕當故事主角 由於 AI 合成技術非常強大,一旦發現自己不幸變成不實影 片(或照片)中的人物,可截圖提供警方,向警方報案。 如果發現長輩長或親友遭人惡意利用 AI 換臉,可提醒對方 應截圖提供警方,向警方報案。 六、打 165 反詐騙電話求助 透過 165 反詐騙網站回報自己遇到的詐騙情況,除了會提 供必要的解決方案之外,也能建立案例資料或加強宣導,避 免下一個遇到類似案件的受害者。提醒各位聽眾朋友,有任 何疑問,請撥打 165 反詐騙專線,或撥打 110 報案。

Q4:近期推出自製「預防 AI 深偽詐騙影片」為何?
A4:最後跟各位聽眾朋友分享我們警察局新推出的「嘉警識 詐熊蓋讚─麻吉搖身 AI 詐騙」抽獎活動,也就是由本局刑 大同仁自行編導演出拍攝的預防 AI 深偽詐騙宣導短片,即 將在臉書專頁推出囉!歡迎聽眾朋友持續鎖定「嘉義縣警察 局刑事警察大隊」臉書專頁,獎品會有本局刑事 Bear 娃娃、 抱枕、保溫杯等多項好禮,看影片、學識詐、抽大獎!