冒充馬斯克詐騙7000萬AI時代“眼見”不一定爲實

元宇宙新聲 2024-04-23 18:54:01

作者|賈桂鵬

日前,有外媒報道,韓國一女子被冒充埃隆·馬斯克的社交媒體賬號詐騙7000萬韓元(約合36萬元人民幣)。

進入到2024年,AI技術越來越成熟,也在更多行業中助力人們降本增效。但隨著生成式AI技術的快速發展,也讓人們眼見也未必爲實。不法分子借助智能AI換臉和擬聲技術,融合他人面孔和聲音、制造虛假圖像和音視頻,就可仿冒他人身份,輕松實現遠程視頻詐騙,給不少人造成很大的經濟損失。

AI技術的迅猛發展,其潛在危害也逐漸顯現,給人類社會帶來了前所未有的挑戰。那我們應該怎樣應對呢?

冒充馬斯克,詐騙7000萬韓元

在去年7月17日,受害女子A某在社交軟件上被一個自稱是埃隆·馬斯克的賬號添加爲好友。爲了證明其身份,該賬號向A某發送工作照片和身份證件的照片,並詳細描述了一系列私人活動,例如“孩子們每周末都會去SpaceX玩”和“乘坐私人直升機前往特斯拉工廠所在的得克薩斯州”等。

而且,該賬號還通過視頻通話進一步誘導信任。據A某透露,視頻中“和馬斯克長相非常相像的男性”向她表達愛意,說道:“你好!我愛你,你知道嗎?”

據報道,沒過多久,該賬號就開始對A某說:“我很高興我的粉絲能通過我成爲富翁”,暗示投資能帶來財富,並提供了一個銀行的賬號信息。基于這些信息,去年8月,A某多次向指定賬號彙款,累計達到7000萬韓元(約合人民幣36萬)。

在韓國媒體與這個冒充馬斯克的賬號進行電話溝通,不過對方以“美國現在是清晨,太早了”爲理由,提議改用短信方式交流。

最後,爲安撫受害者,該賬號還發送了一段錄音,聲稱“我是埃隆·馬斯克,希望聽到這個錄音文件後能放心”,但專業人士分析這段錄音後確認其由AI合成。

其實不僅在韓國,在我國也出現了不少AI詐騙的現象。近期,香港警方披露了一起震驚全球的“AI換臉”詐騙案,涉案金額高達2億港元。案件中,受害者參加了一個所謂的“多人視頻會議”,但他卻未曾料到,除了自己之外,其他所有參會人員都是由AI技術生成的虛假形象。

元宇宙新聲認爲,AI技術的發展雖然帶來了許多便利和福祉,但其潛在危害也不容忽視。我們需要在享受科技帶來的好處的同時,保持警惕和理性思考,加強對AI技術的監管和管理,在確保其不會對人類安全造成威脅的前提下進行發展。

AI換臉案件逐漸提升,AI合成語音更難辨別

新近的案例中,我們發現在視頻通話中利用AI換臉的案件數量逐漸變多。AI實時換臉的方式是利用人臉識別模型和攝像頭來獲取人臉的關鍵特征點。這些特征點被用來在視頻中跟蹤人臉輪廓、眼睛、眉毛等區域的位置。

理論上,面部特征點越多,AI換臉的效果越好。因而,爲了打造一個逼真的AI換臉騙局,犯罪分子通常會廣泛搜集與被害人有關親友的視頻、照片等作爲換臉素材。

在論文Joint Multi-view Face Alignment in the Wild展現了人臉識別模型在不同人臉截面的特征點識別效果。從圖中可以看到,正臉特征點的識別效果遠比側臉要好。

這可以成爲我們破解AI換臉的辦法之一。metaphysic.ai的一項研究指出,在視頻通話等實時視頻場景中,AI換臉效果會因爲面部遮擋或側臉轉向而大打折扣。

與AI換臉視頻相比,AI合成語音在詐騙中其實更難辨別。

全球安全技術公司邁克菲(McAfee)在2023年發布的調查報告中指出,只需提供3—4秒的錄音,網絡上的免費AI工具就能生成相似度達到85%的克隆人聲。在參與調查的七千多位全球受訪者中,有70%的人不確定是否能分辨AI合成語音,而大約有10%的人遭遇過AI語音詐騙。

在社交媒體上,許多留學生發帖表示曾遇到利用AI合成本人語音,對在國內的父母進行的詐騙。這些詐騙以綁架爲名,放出AI合成的求救語音,同時利用時空差,在造成恐慌的心理下騙取大量金額。

那麽,面對技術的升級,AI詐騙的案例逐漸增多,我們面對這種新型詐騙就沒有更好的辦法了嗎?

AI時代,避免詐騙我們需要做什麽

詐騙分子往往換臉僞裝成親人、朋友、同事、領導等,虛構一個緊急事由後,利用被騙目標的急迫心理實施詐騙行爲,在情急之下,受害人往往容易放松警惕。

騙子會通過多種渠道收集被騙目標的親友照片、視頻、聲音等生物信息以及姓名、電話、社交賬號等個人信息,通過AI換臉僞裝成目標對象的親友。

因此,要加強個人信息保護,盡量避免個人信息過多暴露,大家在社交媒體分享含有清晰人臉的照片和視頻時,一定要謹慎,因爲這些照片可能會被生成之後用于人臉識別驗證,或者其他一些非法目的。此外,一定要保護好兩類敏感信息:一類是我們的人臉、虹膜、聲紋、指紋等生物特征信息,還有一類是身份證號、銀行卡號、體檢報告等重要個人信息。

AI詐騙分子十分注重“效率”,因爲一旦時間過長將露出破綻。在涉及對方要求轉賬彙款交易時,要再次通過電話等形式詢問具體信息,多重驗證對方是否爲本人,最好向對方銀行賬戶轉賬,避免通過微信等社交軟件轉賬,並將轉賬時間設定爲“24小時到賬”,以預留處理時間。

那麽,能否應用AI技術來反“AI人臉”詐騙呢?

近年來,確實有很多技術企業已經開始嘗試不斷優化檢測模型,探索將反欺詐模型部署在手機、電腦或社交、會議軟件中,但網絡信號與算力仍是待解決的難題。我們看到,防範“AI換臉詐騙”的規則和技術現在還不是特別成熟,目前呼籲民衆要增強防範意識,呼籲出現更好的反欺詐技術,呼籲政府層面從企業監管、法律等層面制定更細致的條例來預防。

元宇宙新聲認爲,技術發展帶來的問題,還要靠發展技術來解決。AI僞造後的通話和視頻雖然能夠逼真地模仿人物的語言和行爲,但仍存在破綻。例如眨眼頻率過低、面部表情較爲單一、唇形不匹配、手部動作僵硬等。要加快相關技術研發,開發更爲先進的反欺詐系統,利用大數據與機器學習算法來識別和攔截詐騙信息,以眼還眼,以AI反制AI。

寫在最後

隨著AI技術的發展,其雙面性就凸顯出來,AI詐騙作爲新型的網絡犯罪威脅,我們每個人都應該增強安全意識,學會識別和防範此類詐騙行爲,共同營造一個更加安全的網絡環境。在期待廠商們推出更多安全應用的同時,我們也希望通過科普知識的分享,讓更多人了解AI詐騙的危害,增強網絡安全意識,保護自己免受網絡犯罪的侵害。

0 阅读:11

元宇宙新聲

簡介:在這裏,看懂元宇宙