詐騙、AI換臉、一鍵脫衣,人工智能的另一面到底有多黑暗?

元宇宙新聲 2024-05-06 19:15:40

作者|賈桂鵬

從去年開始,AI行業不厭其煩地上演著“iPhone時刻”,比如ChatGPT的人機交流、HeyGen讓老外說中文、Runway的化靜爲動等,AI舞台的中間正在成爲各方爭霸的焦點。

但與此同時,在這些AI應用的反面也在上演著一場“蝴蝶效應”帶來的“災害”。

比如,看似普通的AI換臉,從明星、總統,影響到白領職員、學生在內的每一個普通人,它沒那麽驚豔也不算顛覆,卻足以讓我們“心驚肉跳”。而“一鍵脫衣”應用的出現更讓人們的安全感蕩然無存。

是什麽樣的人在利用這些應用來作惡?他們就無法無天了嗎?難道這就是AI爲人類帶來的價值嗎?

人工智能在助纣爲虐嗎?

我看到你的“裸照”了。

如果有一天,你如往日一樣坐地鐵上班或者騎車上學,在座位上准備一天的工作或課程時,朋友發來一條“我看到你的裸照了”的信息,你會有怎樣的反應?

這不是一個玩笑。

此前,在僅三萬人居住的西班牙阿爾門德拉萊霍 (Almendralejo) ,一個話題正在以“病毒”似的速度傳播著,網上有學校裏三十多名女孩子們的裸照。更令人感覺到可怕的是,這些女孩們明明是受害者,但在這個小鎮裏,卻並沒有得到鄰裏們的支持。

在可想而知的黑暗中,他們在家人的支持下,堅持了下來,直到警察公布了犯罪嫌疑人的信息,才讓風波平息,但罪惡的背後卻讓我們看到了AI的陰暗面。

西班牙國家司法警察總署就對此案作出了一些解釋和報告:涉案人員總共有十人,其中三人使用了ClothOff,這是一款免費的人工智能應用程序,它可以讓用戶“脫掉”任何想要的人的衣服,這也意味著任何人都可以通過這樣一款AI應用,以極低的成本來實施犯罪。

這樣的罪責並沒有讓技術有所收斂,而是以更快地速度在發展。

在我國也同樣出現了這樣的案例,一位廣州女生在地鐵拍的美照,被個別網友,用AI一鍵脫衣軟件生成了裸體照片。更可惡的是,在AI脫衣處理以後,還有網友就把生成好的裸照發到各個微信群,繼續進行造謠,這對于當事人造成了不可忽視的影響。

不僅是普通大衆成爲受害者,美國流行樂歌星泰勒·斯威夫特也受到“AI僞造照片”事件的困擾,大量由AI生成的泰勒虛假色情、血腥照片在多個社交平台瘋傳,浏覽量已超過千萬,引發社交媒體震動,也引起了美國白宮的注意。

實際上這不是泰勒第一次成爲AI“深度僞造”的受害者。就在不久前,有人使用AI技術仿造了她的聲音和形象來爲商品進行推廣,讓消費者誤以爲這是泰勒代言的商品。

元宇宙新聲認爲,雖然利用AI技術制作虛假信息早已有之,但隨著生成式AI在過去一年多時間內的快速發展,對視頻、圖片、音頻進行深度造假技術更加成熟且普遍,造假的成本也更加低廉。

傳播學者羅伯特·切斯尼形象地稱之爲,“說謊者的紅利”,前所未有的AI深度僞造焦慮讓那個曾經遙遠的問題,驟然變得現實而緊迫。

那麽,這些令人發指的行爲應該如何處理?在這個真假難辨的時代裏,普通人就應該成爲受害者嗎?

AI的陰暗面,難道沒辦法阻止嗎?

使用人工智能算法生成的高度逼真的虛假圖像、音頻和視頻等,被稱爲“深度僞造”內容。

這一概念于2017年首次出現,此後借助該技術詐騙或操縱輿論的事件在全球愈加頻發。以美國爲例,過去一年裏人工智能詐騙事件同比增幅超過了50%。

不過時至今日,人們仍未能有效解決該問題。這是因爲人工智能造假能力的進步速度遠遠超過了信息識僞技術的開發速度。

如今,任何人都可以快速地、低成本地生成難辨真假的圖像、音頻甚至視頻,而且難以追蹤。與之相反,識僞技術則因在主題和軟件方面具有特異性,難以得到普及。此外,核查事實需要花費更多時間精力。

據日本瑞穗研究所及技術公司的調查,70%的日本受訪者認爲互聯網上的信息很難判斷真假,但只有26%的受訪者表示在接觸可疑信息後會進行某種程度的驗證。

2024年年初,世界經濟論壇發布《2024年全球風險報告》,將人工智能生成的錯誤信息和虛假信息列爲“未來兩年全球十大風險”之首,擔心其會使本就兩極分化、沖突頻發的全球形勢進一步惡化。

元宇宙新聲發現,很多的AI深度僞造說不清究竟是分辨不清,還是半推半就,深度僞造的信息總是能在“看熱鬧不怕事兒大”的心態下廣泛傳播。

立法是治理AI犯罪的一種途徑

我們看到,2016年以來,各國陸續發布相關政策法規,但進展仍趕不上技術的進步。去年10月,拜登簽署美國首項人工智能監管行政令,爲人工智能建立安全和隱私保護標准,但被指缺乏強制執行效能。

歐盟方面,雖然歐洲議會于3月13日通過《人工智能法案》,但是法案中的相關條款將分階段實施,部分規則要到2025年才生效。日本執政黨自民黨直到最近才宣布計劃在年內提議政府引入生成式人工智能立法。

近年來,我國也出台了《關于加強科技倫理治理的意見》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等多項法規和政策,一方面給AI有關技術的創新發展“鼓勁兒”,一方面又給其“立規矩”“劃紅線”,以確保相關技術的開發和使用遵守法律法規、尊重社會公德和倫理道德。

無論是生成式人工智能帶來的虛假信息問題,還是人工智能應用的風險,其影響都是跨越國界的。因此,人工智能的監管和治理應通過國際合作來解決,各國應共同做好風險防範,攜手共建具有廣泛共識的人工智能治理框架和標准規範。

元宇宙新聲認爲,AI技術作惡確實值得焦慮,但也無須過慮。如同時代的發展,人類社會也在自我調節中不斷適應著新的變化,新技術短時間打破平衡,很快在社會的自我調節下恢複平穩。歸根結底,無論是“AI換臉”還是“一鍵脫衣”,錯都不在AI,也不在技術,而法規的制定也只是讓罪惡發生時有法可依。

其實,真正可怕的從來都不是AI深度僞造,而是深度僞造的病毒式傳播,而傳播關乎我們每一個人。

寫在最後

巴菲特曾比喻說:“我們就像是讓精靈從瓶子裏跳出來,尤其是當我們發明核武器的時候,它已經造成了一些負面後果。這種力量有時會讓我感到害怕,而且這個精靈已經無法再放回瓶中。”

AI的情況可能與之類似,它已經釋放出來,並一定會在各個方面發揮著重要作用,我們只希望這個作用更多地是正面的。

0 阅读:73
评论列表
  • 2024-05-06 22:47

    一個工具自然有好的方面也有壞的方面

元宇宙新聲

簡介:在這裏,看懂元宇宙