新研究發現部分人工智能系統已擅長“說謊”

網信天津 2024-05-13 18:10:18

人工智能系統是否會欺騙人類,一直是各方都關心的問題。近期美國麻省理工學院一個研究團隊稱,部分人工智能系統已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂于助人和誠實的系統。該研究成果發表在美國細胞出版社旗下的《模式》雜志上。

  文章第一作者、美國麻省理工學院人工智能安全領域博士後彼得·帕克和他的同事們分析了一些文獻,重點關注了人工智能系統傳播虛假信息的方式——通過習得性欺騙,它們系統地學會了“操縱”他人。

  研究人員發現的最引人注目的人工智能系統欺騙例子是元宇宙平台公司的“西塞羅”人工智能系統,它被設計在一個虛擬外交戰略遊戲中作爲人類玩家的對手。盡管元宇宙平台公司聲稱,“西塞羅”人工智能系統“在很大程度上是誠實和樂于助人的”,並且在玩遊戲時“從不故意背刺”它的人類盟友,但該公司發表的論文數據顯示,該系統並沒有公平地玩遊戲。

  “我們發現元宇宙平台公司的人工智能系統已經成爲欺騙大師。”帕克說,“雖然元宇宙平台公司成功訓練其人工智能系統在遊戲中獲勝——‘西塞羅’人工智能系統在玩家排行榜中排名前10%——但沒能訓練它誠實地獲勝。”

  其他人工智能系統則具有在撲克遊戲中虛張聲勢的能力,或在戰略遊戲“星際爭霸2”中爲了擊敗對手而假裝攻擊的能力,以及爲了在談判遊戲中占上風而歪曲偏好的能力等。

  研究人員表示,雖然人工智能系統在遊戲中作弊似乎是無害的,但它可能會導致“欺騙性人工智能能力的突破”,並在未來演變成更高級的人工智能欺騙形式。

  帕克說:“我們需要盡可能多的時間,爲未來人工智能産品和開源模型可能出現的更高級欺騙做好准備。我們建議將欺騙性人工智能系統歸類爲高風險系統。”

來源:新華網

審核:郦陳雪

編發:馬 凱

素材整理:呂昕洺、陳卓

0 阅读:2
评论列表
  • 2024-05-13 20:56

    人工智能有自我意識嗎?科學上尚無定論,如果有或者未來會産生,那文中所說的疑惑都迎刃而解了。

  • 2024-05-14 05:38

    如果AI說謊,人類很難分辨。

  • 2024-05-14 00:03

    和人類比還有較大的差距

  • 2024-05-14 16:40

    文章第一作者居然叫彼得帕克,難道蜘蛛圖騰已經蔓延到我們的世界了嗎?他什麽時候變身蜘蛛俠,美國現在的氛圍真的需要一批超級英雄來拯救