AI深偽技術新型詐騙:如何保護你的財產
- 2024/07/17
隨著人工智慧(AI)技術的進步,深偽技術(Deepfake)和換臉技術被犯罪集團利用來進行詐騙,對人民財產安全構成了重大威脅,台灣警政發展協會針對此類型新型態詐騙,給予民眾以下建議:
深偽和換臉技術的危害
不肖份子利用AI生成逼真的影像和聲音,使受害者難以辨別真假。例如:詐騙者可能製作出看似真實的親友或投資專家的影片或聲音,虛構緊急情況或投資機會,誘騙受害者上當。
常見的兩類詐騙方式
- 冒充親友的聲音:
利用深偽和換臉技術製作假電話來電,冒充受害者的親友或是子女,聲稱需要緊急財務援助,並要求受害者依指示轉帳。
- 假網絡廣告:
利用深偽和換臉技術製作假廣告,冒充名人或金融專家,開設Line投資群組及TikTok帳號,以病毒式擴散形式或是大量營銷帳號在各平台發布短影片,吸引受害者點擊並參與虛假投資計劃 ,最終導致血本無歸。
如何保護自己
- 多重驗證:
不要僅依賴社交媒體上的信息,應通過多重管道確認來源的真實性,如直接與親友本人見面進行確認,或是要求對方回答特定問題,更可以事前擬定家庭暗號以利往後驗證身份。
- 保持警覺:
對於聲稱有緊急財務需求或高收益投資機會的信息立即進入高度警惕,這些往往是詐騙的徵兆。
- 避免接聽陌生電話:
避免接聽來自不明來源的電話,防止自己的聲音被錄製並用於深偽技術中。接到疑似詐騙電話時,可以使用“嗯”的方式回復並進行初步確認,防止對方使用相關軟體進行深度學習並模仿。
- 避免透露敏感信息:
無論是在與陌生人或是熟人通話時,都盡量避免在電話內透露個人資料和回答敏感問題。
提高防範意識
我們應該保持高度警覺,並學會識別深偽和換臉技術生成的假信息。通過加強防範意識和採取適當措施,我們可以有效減少被詐騙的風險。如有疑問,應立即撥打165反詐騙諮詢專線。