內部模型可以釋放生成式人工智能的潛力

米言看科技 2024-04-18 18:05:36
釋放生成式 AI 潛力的關鍵

在過去的一年裏,人工智能的發展步伐顯著加快。OpenAI 的 ChatGPT 于 2022 年 11 月到來,引起了消費者的極大關注,組織很快意識到在其産品中實施生成式 AI 應用程序可能帶來的盈利潛力。與此同時,技術領導者在支持生成式人工智能的大型語言模型 (LLM) 上投入了大量資金,去年組織生成 AI 模型的速度增長了 411%。

隨著這一趨勢繼續呈上升趨勢,許多高管正在考慮如何首次將生成式人工智能引入他們的組織。領導者正在尋求消除噪音,並制定具有成本效益、提供業務價值並保護其數據的生成式 AI 戰略。在內部建造模型是答案嗎?

將生成式 AI 引入其中

對于大多數企業來說,人工智能本身並不一定是新的,而是一種現有的工具,在去年已成爲更高的優先級。例如,在 2022 年,在 ChatGPT 出現之前,《麻省理工科技評論》的數據顯示,94% 的組織正在以某種方式使用人工智能。同一項調查還顯示,這些組織中只有 14% 的目標是到 2025 年實現“企業級人工智能”的實施,即讓人工智能成爲至少五個核心職能的關鍵部分。因此,在此期間,人工智能的使用很少在組織之間標准化,因此沒有開發重大的好處。

從那時起,生成式人工智能已成爲許多組織的必備工具,原因不言而喻。麥肯錫公司最近的研究估計,生成式人工智能每年可以推動全球經濟增長2.6萬億至4.4萬億美元(2萬億至3.4萬億英鎊)。生成式人工智能將對所有行業産生重大影響,無論是小型企業還是大型企業。爲了釋放其全部潛力,高管需要實施強大的生成式人工智能戰略,其中包括結構良好的模型、高技能的團隊和一流的數據基礎設施。

並非所有 AI 都是平等創造的

在圖像生成和個性化內容創建等新興用例的潛力的推動下,生成式人工智能正在成爲集成到組織結構中的通用功能。技術團隊很少需要將其價值出售給其他部門,而是在組織的各個方面看到巨大的需求。因此,問題通常不在于生成式人工智能是否具有價值,而在于如何高效、安全和有效地實施它。

模型越大並不總是越可靠,尤其是在數據治理方面。一些最流行的生成式 AI 工具,如 ChatGPT 和谷歌的 Bard,要求用戶授予對模型創建者數據收集的訪問權限。然後,這些個人數據將用于模型的進一步訓練,這在企業環境中尤其令人擔憂。例如,如果員工將敏感的公司數據輸入到第三方生成式 AI 應用程序中,這些數據可能會構成聊天機器人稍後對其他用戶做出響應的基礎。較小的開源模型可以緩解其中的許多問題。當使用小型內部模型時,組織永遠不必與第三方共享他們的數據,從而確保其安全。隨著時間的推移,可以利用這些數據來訓練模型,從而大大提高其性能並減少不准確或不相關輸出的可能性。

更大並不總是意味著“更准確”

生成不准確或不可靠的輸出是許多組織進一步關注的問題。業界最大的 LLM 的訓練需要龐大的數據集,因此第三方組織經常抓取網絡來收集數據。因此,不可避免地,這些數據可能會被網上存在的大量事實不准確之處所汙染。同樣,這種培訓的規模可能會在ESG領域帶來額外的擔憂。馬薩諸塞大學的研究人員發現,訓練大型人工智能模型平均可以排放超過626,000磅(284公斤)的二氧化碳當量,這幾乎是普通汽車生命周期排放量的五倍。

更高效的小型模型可以減輕對不准確的擔憂,可能是一個有前途的替代方案。組織可以從市場上的一系列開源模型中進行選擇,這些模型通常是針對非常具體的用例量身定制的。這與第三方提供商開發的大型模型不同,後者是根據來自網絡及其用戶的數據進行訓練的。如此大的數據集可能對消費者使用有用,但在企業內部,模型了解內部概念和數據將更有用。小型模型帶來了獨特的知識,這要歸功于它們根據組織的專有數據進行訓練。

小型開源模型將與大型模型的性能相媲美,並允許從業者進行創新、共享和協作。隨著組織越來越多地接受生成式 AI 的價值,他們必須考慮如何有效和負責任地利用生成式 AI 工具。事實上,市場上最大的模型有許多重要的用例,但對于許多組織來說,值得關注較小的模型。在內部構建時,組織可以更好地控制其敏感數據,降低與生成式 AI 部署相關的成本,實現更准確的輸出,以及更環保的方法。要想在不影響盈利能力、效率和安全性的情況下駕馭生成式 AI 浪潮,小型模型就是答案。

0 阅读:0

米言看科技

簡介:感謝大家的關注