市場星報官方網站
全國數字出版轉型示范單位
m.zgstyb.cn
您的位置: 首頁 > 保險 > 正文

平安養(yǎng)老險安徽分公司反詐宣傳,警惕AI詐騙新型騙局

2023-06-19 12:05:04 來源:市場星報   編輯:劉珍   

多年不見的同學突然打來電話,聲音如初,有日常寒暄、有工作吐槽。幾次電話后,同學提到了買房急著用錢……

前幾天剛見面的微信好友發(fā)來語音消息,說自己經濟上有點困難,家里急需要用錢周轉……

客戶單位領導發(fā)起微信視頻聊天,說是項目著急用錢周轉,請你幫幫忙,以后合作會多多照顧……

電話號碼、微信號、聲音、面容都沒問題,但電話或網絡另一端可能是正在利用AI擬聲、換臉技術的詐騙分子。近期,AI詐騙這一新型電信網絡詐騙手段引起警方和社會公眾高度關注,已有多人因AI詐騙遭受大額財產損失。

什么是AI詐騙?

AI詐騙,是利用AI(人工智能)技術,模仿、偽造他人的聲音、面容、視頻等信息,進行欺騙、敲詐、勒索等違法犯罪活動的行為。常見的手段包括:聲音合成、AI換臉等。

(一)聲音合成

騙子通過收集到的聲音素材信息,利用人工智能技術進行模擬、合成,甚至能達到自動對話的程度,再利用偽造的聲音給親友、同事等撥打詐騙電話實施詐騙。

值得注意的是,騙子可能撥打騷擾電話直接獲取目標受害人的聲音信息,短短幾段對話就能提取受害人的音色、音調,甚至是說話的方言、語氣、節(jié)奏。

(二)AI換臉

騙子通過公開網絡收集、非法收集人臉信息、非法購買人臉識別信息等手段,通過AI技術合成人臉,再向目標人群撥打視頻電話,獲得信任后實施詐騙。

AI換臉技術因動態(tài)視頻的特性,如果配合聲音合成,更容易取得受害人的信任。

如何防范AI詐騙?

AI詐騙雖然披著先進人工智能技術的外衣,但其本質上仍是電信網絡詐騙的手段,最終落到“錢”的問題上來。

(一)注重個人聲音、面容等個人信息保護

在公開社交媒體,特別是短視頻平臺上,盡量避免個人聲音、面容信息的直接泄露,以免被不法分子利用。不明應用軟件索取攝像頭權限時,要適當謹慎操作。對于面部識別要求的軟件,要注意識別是否必要,如權威認證機構的軟件或應用,盡量采取替代驗證手段。

(二)注意識別不自然的細節(jié)

目前AI技術尚未達到完全成熟的技術水平,在語音、面容表情的處理上有一些不自然的細節(jié)。在接聽電話、視頻的過程中,要注意留意語音的節(jié)奏、音調變化是否存在不自然,表情過渡是否生硬,視頻是否存在突然晃動閃爍等情況。

(三)多重驗證,延遲轉賬

無論是否有AI技術加持,電信網絡詐騙最基本的應對手段還是“守住錢袋子”。在對方提出資金轉賬請求的情況下,要注意多核實,向其他朋友、同事核實下情況的真實性,或者多打電話、視頻等交叉驗證。也可以設置延遲到賬,如將到賬時間設置為“2小時到賬”, 預留核實處置的時間。

平安養(yǎng)老險安徽分公司提醒您:警惕AI詐騙新型騙局,守住錢袋子,護好幸福家。

凡市場星報、安徽財經網、掌中安徽記者署名文字、圖片,版權均屬于市場星報所有。任何媒體、網站或者個人,未經授權不得轉載、鏈接、轉帖或以其他方式復制發(fā)表;已經授權的媒體、網站,在轉載使用時必須注明“來源:市場星報、安徽財經網或者掌中安徽”,違者本單位將依法追究法律責任。
熱線電話:0551-62620110
舉報電話:0551-64376913
舉報郵箱:3598612204@qq.com
分享到:

安徽財經網手機版

市場星報公眾微信

市場星報微博

掌中安徽APP下載