AI詐騙能有多逼真?如何識別和預防AI詐騙?
網(wǎng)絡上的AI教學
從號碼到聲音,
AI詐騙能有多逼真?
在家里午睡時,王欣(化名)突然接到了母親同事的微信語音電話,對方問她現(xiàn)在在哪里、在做什么。在王欣還不知道發(fā)生了什么的時候,她從電話里聽到了母親的聲音,聲音聽起來很著急。雖然王欣之前和母親說好了下午會去看牙醫(yī),母親也知道她在做什么,但她還是接到了這樣一通詢問行程的電話。
母親告訴她,自己接到了一通號碼和王欣手機號一模一樣的來電。接通電話后,“王欣”的聲音從電話那邊傳來,母親聽到她的女兒在哭喊。電話那邊的人對母親說,王欣被他們綁架了,讓母親馬上給他們轉賬30萬元,不然就“撕票”。母親嚇壞了,立馬打算給對方轉錢,被旁邊的同事攔下,就這樣,午睡中的王欣被叫醒。
據(jù)王欣所說,“這個人還挺高明的,一開始我想,難道看不出來不是我的電話嗎?我后來看了一下,那個電話號碼就是我的手機號,連我自己都辨別不出來”。一模一樣的電話號碼瞞過了母親,神似王欣的聲音讓母親更加確信,“我媽媽說,那就是我的聲音。”母親還提到,對方一開始先詢問她身邊有沒有人,并要求她走到?jīng)]有人的地方。幸好通過微信語音電話及時確認了王欣在家,母親才放下心來。
“一年之前為了留學辦簽證,我需要30萬的存款證明,我第一反應就是這個。”王欣回憶起,曾和母親有過關于30萬元的對話。此外,王欣偶爾會在朋友圈和其它社交媒體上發(fā)自己的照片、視頻和聲音,身邊還有朋友喜歡在社交媒體上發(fā)類似的內容,曾在社交媒體上被冒充向身邊的人索要錢財。
此后,母親再一次收到了類似的電話。“現(xiàn)在,我媽媽都不太敢接我打的電話了,如果是微信電話的話還可能會接一下。”王欣說。
如何識別和預防AI詐騙?
涉及資金往來應多途徑核對
中國社會科學院大學互聯(lián)網(wǎng)法治研究中心執(zhí)行主任劉曉春認為,涉及資金往來等風險場景應多途徑核對。上海申倫律師事務所夏海龍律師表示,在AI詐騙中,獲取受害人面容及聲音素材的途徑比較多,一般是從受害人在社交媒體上分享的照片、短視頻中獲取,的確很難直接識別視頻或聲音的真假,最好的辦法就是在接到可疑電話后直接跟本人核實。
還有專家表示,在使用互聯(lián)網(wǎng)服務或者在社會生活中,要求輸入人臉等生物特征數(shù)據(jù)的時候,要看對方收集生物特征數(shù)據(jù)是不是符合《數(shù)據(jù)安全法》《個人信息保護法》的要求,是不是合法、正當和必要。
近年來,國家出臺一系列規(guī)定防范AI詐騙。2022年11月,網(wǎng)信辦、工信部和公安部發(fā)布的《互聯(lián)網(wǎng)信息服務深度管理規(guī)定》明確,深度服務者應當落實信息安全主體責任,建立健全用戶注冊、算法機制機理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個人信息保護、反電信網(wǎng)絡詐騙、應急處置等管理制度,具有安全可控的技術保障措施。
今年8月開始施行的《生成式人工智能服務管理暫行辦法》規(guī)定,者對使用者的輸入信息和使用記錄應當依法履行保護義務,不得收集非必要個人信息,不得非法留存能夠識別使用者身份的輸入信息和使用記錄,不得非法向他人使用者的輸入信息和使用記錄。
針對深度服務的平臺,夏海龍指出,如果侵權、違法行為由用戶個人實施,則相關服務的平臺一般不需要承擔責任,但應履行相關法律義務,深度服務者和技術支持者具有生成或者編輯人臉、人聲等生物識別信息功能的模型、模板等工具的,應當依法自行或者委托專業(yè)機構開展安全評估。人聲、仿聲等語音生成或者顯著改變個人身份特征的編輯服務可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內容的合理位置、區(qū)域進行顯著標識,向公眾提示深度情況。(完)
國家發(fā)展改革委7日發(fā)布消息,根據(jù)近期國際市場油價變化情況,按照現(xiàn)行成品油價格形成機制,自2023年11月7日24時起,國...[詳細]