本文轉自:貴州日報
本報訊(記者 趙哲銘)只需一張靜態照片即可生成動態視頻,憑藉幾秒語音便能克隆聲紋——這些曾被視為科幻場景的技術手段,如今正成為新型犯罪的作案工具。貴陽市公安局反詐中心披露的典型案例顯示,福州某科技公司負責人郭某曾接到“好友”視頻電話,對方以專案競標為由要求代轉430萬元保證金。由於視頻中人物形象與好友完全一致,郭某未經核實即完成轉帳,最終雖追回330萬元,但仍造成重大損失。
針對“AI換臉”等技術濫用引發的侵權違法亂象,國家互聯網資訊辦公室與公安部近日聯合發佈《人臉識別技術應用安全管理辦法》,明確規範人臉資訊處理規則與技術安全要求,該法規將於2025年6月正式實施。
目前,AI詐騙主要類型包括:聲紋合成詐騙:通過克隆特定對象聲線實施電話欺詐;影像偽造詐騙:生成虛假緊急場景騙取信任;智慧客服詐騙:構建對話系統誘導轉帳操作;情感交互詐騙:訓練語言模型建立虛擬情感關係。
面對技術賦能的犯罪升級,貴陽市公安局反詐中心提出“動態驗證+資訊防護”雙重策略:
即時交互驗證:視頻通話時可要求對方完成指定動作(如連續眨眼、面部遮擋),觀察畫面延遲或變形等異常特徵;
生物特徵防護:避免在非必要場景留存人臉、聲紋、指紋等數據,謹慎授權信息採集類應用;
終端安全管理:定期更新設備防護系統,拒絕來源不明的網站連結;
信息洩露預防:不隨意公開身份證件、住址等敏感資訊,手機避免存儲證件照片。