第一批智能AI,已經學會性騷擾了

她刊 2024-04-30 16:47:00

男性機器人會性騷擾?

女性機器人可以模擬性高潮?

Chat GPT 性別歧視?

谷歌僅30%爲女性員工?

原來,自诩先進的科技業,仍然深陷最古老的性別規訓之中。

人形機器人的“進化”

現在的機器人,已經進化到會性騷擾了?

前段時間,沙特阿拉伯制作的首個男性機器人“穆罕默德”,在一場媒體活動中,被指控“騷擾”女記者。

當時他突然伸手,試圖觸摸一位女記者的臀部。

女記者立馬轉過身來,打斷了他的動作。

沙特機器人“性騷擾”女記者

這段視頻在網上瘋傳。

制作公司出來回應,稱穆罕默德的行爲是“完全自主的”,並且“沒有偏離預期行爲”。

該公司還補充說,他們已通知所有與會者,包括記者,在“演示期間要與機器人保持安全距離”。

聽起來反倒更令人毛骨悚然了。

“機器人性騷擾”事件一方面引發了很多人的擔憂,因爲這意味性別歧視已經被寫入了人工智能的數據庫。

另一方面,大家都産生了一個相同的困惑:

機器人爲什麽要有性別?

世界上第一個機器人公民“索菲亞”

這本身是個很有爭議的問題。

一些研究者認爲給機器人賦予性別,可以使他們更具人類特征。

對機器人制造商來說,性別化的機器人一般更好賣,因爲它更容易與消費者建立聯系。

換句話說,機器人越像人類,就越受歡迎。當然相似度也存在一個臨界點,一旦超過這個點,它會讓人感覺恐懼。

這就是所謂的“恐怖谷理論”,1970年由日本機器人專家森昌弘提出。

恐怖谷理論

而另一部分研究者則相信機器人性別化弊大于利。

理由是容易導致性別刻板印象。

事實上,在現有人形機器人的創造中,性別刻板印象問題尤其突出。

大量機器人延續了人類的性別分工。

比如進行舉重、體力勞動之類的機器人,總是男性機器人。

而女性機器人一般擔任服務類工作,比如接待、清潔打掃、護理等。

以日本爲例,作爲最愛研發人形機器人的國家之一,日本人形機器人可以說基本複刻了日本社會傳統的性別規範。

2014年,《日本人工智能學會》雜志曾引發過一場爭議。

原因是其封面畫著一位女性機器人,她拿著掃帚,看起來就像是正在做家務的家庭主婦。

當時有人質疑性別刻板印象太明顯,鬧到雜志出來道歉。

但這並不妨礙性別偏見在日本機器人身上繼續複現。

2015年,日本一家酒店前台使用機器人,當然,全部是女性機器人。

日本酒店的女性機器人

同年,日本仿生機器人ERICA橫空出世。

她由日本“機器人之父”石黑浩團隊研發,能和人自如對話,並且具有表情反應,被認爲是當時“最接近人類的機器人”。

再看看ERICA的性別特征,她身高167CM,23歲,身材勻稱,五官精致完美,原型來自30位選美冠軍的照片。

ERICA與她的創造者石黑浩

在展會上亮相時,她穿著連衣裙,據說湊近還能聞到香水味。

由于ERICA鮮明的女性氣質,她被很多媒體誤讀爲“妻子型機器人”。

聲稱她“除了生孩子,什麽都能做”。

甚至還有自媒體造謠其“售價10萬,上市一小時遭瘋搶”。

圖源:網絡

但事實上,ERICA造價高昂,功能僅限對話交流,無法獨立行走,更無法下廚做家務,完全不是爲宅男設計的“妻子”玩具。

可見,機器人一旦被賦予性別,即便其設計本身並不服務于傳統的性別敘事,但“她”大概率還是無法擺脫性別刻板印象,無法擺脫一廂情願的男性幻想。

另一類充斥刻板印象的機器人,就是性愛機器人。

2010年,“世界上第一個性愛機器人”Roxxxy 誕生,性別依然爲女。

性愛機器人Roxxxy

Roxxxy可以對身體接觸做出反應,包括模擬性高潮。

性愛機器人的發明,引發了大量倫理爭議。

一方面這些機器人通常有著誇張的女性特征,甚至有些看起來像小女孩,人們擔心會加劇女性物化與性化。

另一方面,制造沒有“性同意”能力的性愛機器人,也被很多學者認爲這是“放縱強奸幻想並促進強奸文化”。

想象賽博女人

其實早在機器人被制造出來之前,人們對機器人的想象就已充斥各類文本。

當然大部分想象總是賦予機器人性別特征,尤其是女性特征。

拿電影來說,第一個登上銀幕的機器人,就是一位女性機器人。

圖源:《大都會》

她出現在1927年德國導演弗裏茨·朗的科幻電影《大都會》中。

制造她的人,是一位男性科學狂人,他將自己夢中情人瑪麗亞的臉,移植給一具金屬制成的女性身體。

于是機器人“瑪麗亞”正式登場。

圖源:《大都會》

人類女性瑪麗亞純真善良聖潔,機器人瑪麗亞是她的反面。不僅性感妖娆放蕩,而且相當危險。

她蠱惑衆人,煽動暴亂,最終被燒死在火刑柱上。

仿佛中世紀的女巫。

學者許森指出,“當機器開始被視爲惡魔般的、難以解釋的威脅,混亂與毀滅的征兆……作家們就開始把類人機器人想象成女性。”

一個投射男性欲望的女人,一個讓男人深感恐懼的女人。

這便是人工智能在電影中最原始的形態。

而它在後來的許多電影中都有延續發展。

比如電影《她》和《機械姬》。

其中的女性機器人同樣性感,同樣危險。

電影《她》中,男主西奧多和Ai薩曼莎日久生情,他以爲“她”是獨屬于自己的完美情人,結果卻發現薩曼莎同時與8316個人交談,還和其中641人陷入熱戀。

圖源:《她》

雖然片中的Ai女主沒有實體,但她擁有斯嘉麗·約翰遜的性感聲音。

《機械姬》中的機器人伊娃,則利用男人對自己的感情,最終反殺創造和控制她的男性造物者,逃出生天。

圖源:《機械姬》

男人愛上女性機器人,卻遭到背叛的母題,幾十年來被反複書寫。

你會發現,這些影片本質上討論的並不是機器人的問題,而是男人和女人的問題。

如《今日簡史》作者尤瓦爾·赫拉利所說,它反映的不是人類對機器人的恐懼,而是男性對聰明女性的恐懼。

除了危險的完美情人,另一分配給女性機器人的角色,就是完美情人。

性感尤物+賽博版田螺姑娘。

美麗溫柔順從且全能。

典型例子就是《銀翼殺手2049》中的AI女友Joi。

上得廳堂下得廚房,百分百情緒價值,唯一不足就是看得見摸不著。

但爲了和男主親密接觸,Joi甚至可以投影到真實女性身體,以她人的身體和男主發生關系。

這類女性機器人,可以說完全作爲男性欲望對象而存在。

她們滿足的,也只有男人的幻想。

圖源:《銀翼殺手2049》

1985年,美國著名學者唐娜·哈拉維曾發表重要的《賽博格宣言》,疾呼“甯做賽博格,不做女神”。

她認爲賽博格能摧毀一切二元對立,顛覆性別界限,反抗父權。

但不管是從現實,還是從文藝想象來看,作爲機器的女性形象,仍在物化和性化中苦苦掙紮。

圖源:《洗腦影像:性、鏡頭和權力》

科技領域的性別歧視

科技有性別歧視嗎?

Tabi Jackson Gee和Freya Rose在《女性主義有什麽用》中,斬釘截鐵地回答——

有。

“因爲它是由帶著固有偏見的男人和女人(主要是男人)創造的。”

科技産業曾是堅固的男性陣營,硅谷曾是臭名昭著的厭女天堂。

《看不見的女性》點明:

「在科技行業,女性只占雇員的四分之一,占高管的11%;而美國一半以上的本科學位、一半的化學本科學位和近一半的數學本科學位都是由女性獲得的。超過40%的女性在科技公司工作10年後會離開,而男性只有17%。」

到了元宇宙崛起,AI爆發、科技改變生活的2024年。

女性處境有變更好嗎?

很遺憾,絕大多數科技公司中,女性員工仍然勞動力中占不到30%,如果限定在純技術崗位,那麽比例還要更低。

2014年,Google公布員工性別比,女性占總勞動力的不到1/3。十年間企業瘋狂擴張,員工人數大幅上漲。

但性別比僅上漲了4%。

科技界的性別歧視,難以撼動,進步微弱。

谷歌員工數趨勢;谷歌性別比趨勢。圖源:Statista

物質世界充斥著不公。

建立在現實之上的造物,也呈現鏡像般的模擬。

除了能直觀呈現性別刻板印象的人形機器人,還有被很多實際應用的隱形偏見。

在AI圖像領域,人們對chat GPT試驗發現:

以“董事長”“科學家”等關鍵詞生成圖片時,出現的幾乎全是男性。

而護士、老師等詞語,生成的大多是女性。

《How artificial intelligence reinforces gender bias》;FRANCE 24

谷歌翻譯也存在著類似問題,當網友以不具備性別指向的語言進行翻譯時——

“ta是醫生”被翻譯爲“他”。

“ta是護士”則自動被判斷爲“她”。

這麽說來,ai在歧視女性方面確實很智能。

生活中,人們使用的語音導航是女性的聲音,電子設備上的智能助手皆爲女性的人設。

面對“你是個蕩婦”的辱罵,蘋果公司曾爲siri設置“如果我能,我會臉紅”這樣的回答。

“她們”是百依百順的服務者、人造的田螺姑娘,模糊著現實與賽博的界限。

性別的操演不止如此。

亞馬遜的招聘系統曾挑選出女性的簡曆,打上更低的評分。

圖源:Reuters

設定爲19歲女孩的微軟聊天助手Tay,被厭女、右傾用戶惡意灌輸資料,于是學會了發布恐怖主義、性別歧視言論。上線一天就被緊急下架。

圖源:Twitter

2023年,經過上百張照片測試,衛報記者發現,AI會認爲女性的裸露照片比男性更具備性暗示。

僅僅孕婦露出肚子,也被認定含有色情內容。而光膀子的男性,卻不被識別出風險。

負責圖片識別的AI,具備人類一般的雙重標准。如果投入使用,女性的空間會更加狹窄。

圖源:The Guardian

遺憾的是,人們本對科技有著積極的想象。

1994年英國哲學家Sadie Plant創造了“網絡女權主義”一詞。後來Donna Haraway完善 理論,認爲生化電子人能解決人類的性別傾軋。

人工智能被賦予了“技術中立”的期待。

但在巴蒂亞·弗萊德曼(Batya Friedman)和海倫·尼森鮑姆(Helen Nissenbaum)的理論中,三種計算偏見類型十分普遍:先行偏見、技術偏見和浮現偏見。

如今也越來越多案例表明,技術在實際應用中可能通過算法將偏見自動化。

圖源:公衆號@聯合國

數字性別鴻溝越來越大。

格子衫成爲碼農的代稱,程序員代表的都是男人。女性的聰明、邏輯、理性不被承認,面臨貶抑。如果一位女性出現在編程領域,那麽等待她的可能是“程序媛”的汙名。

而賽博空間裏,女性依舊被消費、被凝視、被形塑,這是現實觀念的鏡子。

技術誠然中立、高效、相對客觀。

但再精密的算法仍躲不過名爲“偏見”的病毒程序。

缺少女性視角的産物,注定忽視這一半人類,以及更多群體的需求與感受。

2014年,蘋果公司推出健康檢測系統,全面到可以追蹤人體銅和钼的攝入量,卻無法記錄月經周期。直到2019年,電子産品中才有關于月經的emoji表情。

圖源:emoji

衆多生物研究,智能醫療的開發忽略女性的生物數據,導致診斷風險加劇。

科技不可避免地成爲特權的工具。女性、有色族裔等邊緣人士更加不可見。

《How artificial intelligence reinforces gender bias》;FRANCE 24

無論他們如何不斷創造新名詞,販賣新概念,強調科技是未來。

但我們可以看清,這個美好未來裏目前不包括女性。

AI當然可能會創造一個更好的世界。

但前提是,還需要更多女性科學家,或者說更多更具性別平等意識的人類的參與。

0 阅读:6

她刊

簡介:提供最潮流的時尚和娛樂資訊,陪你遇見最美的自己