生成式人工智能如何改變世界?張亞勤、羅素、曾毅這樣說

新京報貝殼財經 2024-03-28 01:00:48

3月27日,在博鳌亞洲論壇2024年年會“AIGC(生成式人工智能)改變世界”分論壇上,中國工程院院士、清華大學講席教授、清華大學智能産業研究院(AIR)院長張亞勤,《人工智能:現代方法》作者、加州大學伯克利分校計算機科學系教授斯圖爾特·羅素,中國科學院自動化研究所研究員、聯合國人工智能高層顧問機構專家曾毅等多位專家、産業界人士共話AIGC的未來。

張亞勤:人工智能還是42公裏馬拉松的“第5公裏”

在分論壇的現場,張亞勤談了大模型和生成式AI的關系,他認爲,兩者一個是技術一個是能力,因爲有了預訓練、超大規模、自監督式的大模型,生成式AI(人工智能)才可能有如此高的能量。

關于大模型的走向,張亞勤表示,首先是多模態,其次是人工智能大模型走向自主智能,可以進行目標制定、規劃任務,自我制定路徑、自我完成方案、自我編碼等。第三則是邊緣智能,現在大模型主要還是在雲端,未來將走向手機、PC、機器人、汽車等。“最重要的是,現在整個世界在走向物理世界,生物世界,所以,生成式AI不僅能進行語音識別、人臉識別、圖像識別,還可以去創造和生成,不僅可以生成文字、圖像、視頻,還可以生成代碼、藥物、數學公式以及物理方程式,所以,生成式AI會帶來巨大的技術和範式改變。”

不過,張亞勤認爲,改變中也有一些風險。“當然,我是樂觀主義者,我認爲人類有兩種智慧,一種是發明新技術的智慧,另一種是引導技術走向的智慧,因此,可以一邊發展一邊治理,但一定要在創新、發展的同時想到治理。”

針對AI未來的發展,張亞勤認爲,要素、算力、算法、數據和人才都重要,但長期來看,人才最重要。

張亞勤認爲,現在,人工智能還是42公裏馬拉松的“第5公裏”,大家都有機會。未來一定是人工智能和機器智能的融合,當然,風險很大,必須正視風險,如果不加以引導控制,這個風險就會轉化爲生存風險。

斯圖爾特·羅素:使AI系統學習是努力的方向

在分論壇上,斯圖爾特·羅素則就AI發展路徑、中美AI競合等問題提出了觀點。

斯圖爾特·羅素表示,下一代GPT5,人們可能會發現其訓練材料已經是之前的十倍,但這也意味著數據的終結,宇宙中已經沒有更多數據,這時,如果還沒有真正的通用智能,人類就必須去尋找不同的方向。“我不認爲合成數據能改變這個問題,因爲合成數據並不是真實數字,它並不會讓系統變得更有能力。”

可能的新方向會是什麽?斯圖爾特·羅素提到,將概率理論和編程語言結合起來,就可以使用表達式語言來學習新概念,這個技術迄今還未像大語言模型那樣得到發展,還需要更多人類的幹預,來創造出一個結構模型。“使AI系統學習,並且像人類一樣産生産品,同時,人類能理解其內部運行機理,這是我們努力的方向。”

在談到中美AI的競合時,斯圖爾特·羅素表示,競爭是良性的,零和博弈的說法非常錯誤。如果AI是安全的,能夠讓人類受益,甚至比人類能力更強,很多人都會因此受益,從這個角度來說,競爭並沒有意義,核心問題在于人類如何安全地與技術共存。

曾毅:超級智能的人工智能應該是超級利他的

曾毅則在分論壇上談及了AI未來的發展方向及對中美AI競合的看法。曾毅表示,現在的AI看上去似乎發展得接近所謂的AIGC了,但是實際上兩者還沒有任何關系。

曾毅認爲,我們一定要做的努力是,把真正意義的人工智能帶給世界,服務世界,同時要研究可能出現的風險。“人工智能演化速度非常快,人類從曆史、從自然中學習的速度太慢,如果人類還不反思,最後給人類帶來災難性風險的不是人工智能而是人類自己,因爲人類沒有在數億年的演化中學會如何與生態相處,當生態中出現了智慧水平比人高的智能,那才是人類最大的風險。”

不過,曾毅對未來仍樂觀,他認爲,超級智能的人工智能應該是超級利他的,但問題是,現在人類構造的是否是一個超級利他的人工智能,人類能否把大自然演化的規律嵌入到人工智能當中,讓其成爲自然演化的延伸,去關注其他生命,而不是給其他生命和世界帶來災難性後果,這是人工智能技術研究以及未來人類演化需要共同進化的方向。

而針對中美AI競合的問題,曾毅認爲,美國、中國都不能真正引領未來的人工智能,人工智能是基礎性、賦能性的技術,這個世界足夠大,讓中國、美國以及更多國家在構建基礎設施和應用方面都找到機會。更關鍵的問題是,全世界如何團結起來爲人類繁榮構造更安全、更可靠、更可信的人工智能,這才是世界更團結的目標。

新京報貝殼財經記者 潘亦純

編輯 嶽彩周

校對 盧茜

0 阅读:0