微軟爲美國情報部門提供“物理隔離版”ChatGPT

科技沒那麽安全 2024-05-10 12:34:38

如何將ChatGPT這樣的頂流人工智能技術安全地武器化,供情報機構和軍隊使用?微軟給出的答案是“物理隔離”。

提示注入攻擊和訓練數據泄露是包括ChatGPT在內的當前主流大語言模型面臨的主要安全威脅,也是政府和軍隊將其武器化的主要障礙(雖然今年1月份OpenAI悄悄修改使用政策,默許軍方和情報部門使用)。例如,美軍已經禁止在內部使用ChatGPT之類的工具,因爲擔心軍事機密可能被泄露或提取。

據彭博社報道,微軟公司近日打破常規,首次部署了一款與互聯網完全隔離的生成式AI模型。微軟表示,美國情報機構現在可以安全地利用這項強大技術(ChatGPT)來分析絕密信息。

微軟的一位高管稱,這是大語言模型首次完全脫離互聯網運行。包括OpenAI的ChatGPT等大多數AI大語言模型都依賴雲服務來學習和推理數據模式,但微軟希望爲美國情報界提供一個真正安全的系統。

世界各地的間諜機構都渴望利用生成式AI來幫助他們理解和分析每天生成的大量機密信息,但同時又面臨著數據泄露或遭到網絡攻擊的風險。微軟戰略任務和技術首席技術官William Chappell表示,微軟已將基于GPT-4的模型及其關鍵支持元素部署到一個與互聯網隔離的“物理隔離”的(私有)雲環境中。

美國情報機構官員曾多次明確表示渴望獲得與當今主流生成式AI功能同樣強大的工具,這類工具有望徹底改變傳統情報工作。去年,美國中央情報局(CIA)在非密級層面推出了類似于ChatGPT的服務(編者:五角大樓甚至用ChatGPT撰寫官網博客),但情報界需要能夠處理更敏感數據的工具。

上個月,美國中情局跨國和技術任務中心助理主任Sheetal Patel在範德堡大學的一次安全會議上告訴與會代表:“獲取用于處理情報數據的生成式AI是一場競賽。”她表示:“率先將生成式AI用于情報工作的國家將贏得這場競賽,我希望是我們。”

微軟在過去18個月裏一直致力于該系統的開發,包括對愛荷華州一台AI超級計算機進行改造。參與該項目的電氣工程師Chappell此前曾爲國防高級研究計劃局(DARPA)開發微系統,他表示其團隊在2022年開始這項工作時並不確定該如何去做。

Chappell告訴彭博社:“這是我們第一次擁有一個‘孤立’的ChatGPT版本,這裏的孤立意味著它不連接互聯網,而是位于一個特殊網絡上,只有美國政府才能訪問。”

放置在雲端的GPT-4模型是靜態的,這意味著它可以讀取文件,但不能從中學習,也不能從開放互聯網中學習。Chappell表示,通過這種方式,政府可以保持模型的“幹淨”,並防止秘密信息被平台吸收。“你不希望它學習你提出的問題,然後以某種方式泄露這些信息,”Chappell透露:“理論上該AI模型支持大約1萬人訪問。”

據悉,該服務已經于上周四上線,情報界正在對其進行測試和認證。Chappell表示:“該系統已經部署,正在回答問題,可以編寫代碼,這只是它能做的事情的一部分。”

美國中央情報局和國家情報總監辦公室(負責監督美國18個情報機構)沒有立即回應媒體的置評請求。

參考鏈接:

https://www.bloomberg.com/news/articles/2024-05-07/openai-is-readying-an-ai-search-product-to-rival-google-perplexity

0 阅读:5

科技沒那麽安全

簡介:感謝大家的關注