在科技飛速發(fā)展的今天,AI技術被廣泛應用于各個領域,然而,不法分子也盯上了這一技術,利用“AI換臉擬聲”實施電信詐騙,給人們的財產(chǎn)和信息安全帶來了嚴重威脅。為了您的財產(chǎn)安全,請仔細閱讀以下防范指南。
一、什么是“AI換臉擬聲”詐騙?
“AI換臉擬聲”詐騙是一種新型電信詐騙手段,犯罪分子通過AI技術,模擬受害人的面容、聲音甚至行為模式,以此冒充受害人或其親友,進行詐騙活動。這種詐騙手段極具迷惑性,難以辨別真?zhèn)巍?/p>
二、常見詐騙場景
冒充親友求助:犯罪分子利用AI技術模擬受害人的親友,通過視頻通話或語音消息,以緊急情況為由,要求受害人轉(zhuǎn)賬或提供個人信息。
冒充公檢法機關:通過AI換臉技術,冒充公安、檢察院、法院等工作人員,以涉嫌違法、賬戶異常等理由,要求受害人配合調(diào)查并轉(zhuǎn)賬。
網(wǎng)絡社交詐騙:在社交媒體上,利用AI技術模擬受害人的面容和聲音,與受害人的好友進行互動,騙取信任后實施詐騙。
三、AI詐騙典型案例
寧夏固原居民馬某某在刷網(wǎng)絡平臺視頻時,“表哥”發(fā)來消息添加好友。添加成功后,“表哥”發(fā)來視頻電話稱自己在非洲務工,網(wǎng)絡不穩(wěn)定,不方便轉(zhuǎn)賬,但急需和公司簽訂一份合同,希望馬某某能幫他給公司墊付合同資金,等網(wǎng)絡穩(wěn)定后再還錢。馬某某基于對親戚的信任,加上視頻聊天“核實”了身份,先后分三次把1.5萬元轉(zhuǎn)到對方指定的銀行賬戶上。
事后,馬某某給親戚發(fā)微信核實時才得知被騙,原來視頻連線的“表哥”是“冒牌貨”,騙子通過AI換臉和擬聲技術佯裝親戚對其實施詐騙。
四、防范措施
保持警惕:對于任何來自陌生人的視頻通話或語音消息,都要保持高度警惕,不要輕信。
多渠道驗證:在轉(zhuǎn)賬或提供個人信息前,務必通過多個渠道驗證對方的身份和信息,如電話回撥、視頻通話中的細節(jié)觀察等。
保護個人信息:不要隨意在社交媒體上分享自己的面部照片、聲音樣本等敏感信息,以防被不法分子利用。
安裝反詐APP:在手機上安裝國家反詐APP,及時接聽96110反詐電話。
提高法律意識:了解相關法律法規(guī),增強自己的法律意識和防范能力,遇到詐騙行為及時報警。
