歡迎訪問《別有病》網站

bybcn
別有病首頁>>網評>> 事件>> 設暗號識別AI詐騙

設暗號識別AI詐騙

byb.cn
[事件] 作者 :byb.cn 日期:2024-4-24 00:01
    【byb.cn 】(來源:生命時報)可以換臉變聲 冒充親人同事 設暗號識別AI詐騙


  受訪專家:

  北京應急管理局應急服務總隊高級培訓師 李振華

  本報記者 施 婕
  《生命時報》 2024-04-02 第1789期 第6版

  俗話說“眼見為實”,但如今,你親眼看到的也不一定真實。人工智能(AI)技術日新月異,讓一些不法分子動起了歪腦筋,通過AI換臉視頻實施“高級騙術”。不久前,中國駐新加坡大使館發(fā)布了一條反詐公益視頻,畫面中,一位母親正與“女兒”視頻通話,“女兒”要求母親給自己轉賬。就在母親即將按下轉賬確認鍵時,有人敲門。母親打開門發(fā)現,女兒竟然站在自己眼前,而視頻里的“女兒”還在屏幕里滔滔不絕。原來,母親視頻聊天的對象竟是虛擬人,這就是新型AI詐騙手段。

  AI詐騙是以人工智能技術為支撐,通過合成音頻圖片、提取人臉特征實現換聲、換臉,從而實施的詐騙。北京應急管理局應急服務總隊高級培訓師李振華告訴《生命時報》記者,傳統(tǒng)的短信詐騙、電話詐騙更多利用的是信息的不透明、滯后性,偽裝家屬、公司甚至公檢法部門進行詐騙,而AI詐騙尤其是AI換臉,利用的是最新人工智能技術,效果逼真、代入感強,隔著屏幕能以假亂真。“AI詐騙不僅能模擬一對一的聊天視頻,還能模擬多對一的會議視頻。例如香港地區(qū)就有不法分子,利用網絡公開信息模擬生成董事會的線上會議視頻,與真人視頻會議基本無異,成功騙取財務負責人為其轉賬?!?br />
  李振華認為,面對單純的文字或語音,人們還是會保持一定的警惕性,并且隨著國家防詐反詐力度加大,上當受騙幾率也有所下降。但AI技術模擬的音視頻迷惑性強,這才導致國內外受騙案例頻發(fā)。為了避免陷入此類騙術,李振華給出了晃手、捏鼻、看背景、設暗號4種識別方法。

  讓對方在鏡頭前晃手。AI換臉需要識別面部特征,而晃手會干擾面部數據,帶來閃屏等異常情況。讓對方用手按鼻子。此時真人的鼻子會變扁或變形,而虛擬面部就無法實現。仔細觀察人物背景,是否有割裂、模糊的不真實感,也可以讓對方站起來四處活動,看看背后的場景是否會產生變化。李振華坦言,隨著AI技術不斷進步,以上方法可能會逐漸失效,他更推薦第四種方法——設置只有雙方懂的暗號。“暗號不能是生日、門牌號等容易獲取的信息,必須是沒有公開過、只有親密的人才知道的小秘密,比如個人愛好、共同經歷過的事、共同好友等。”

  李振華建議,要從源頭防范AI詐騙,保護好個人信息,不要輕易分享人臉、指紋數據;陌生鏈接或軟件千萬不要隨意點擊、下載,防止手機或電腦中毒;涉及轉賬等需求的視頻通話,不要貿然相信對方,一定要用多種渠道驗證核實對方身份。
搜索