看紅帽如何在RHEL與OpenShift中玩轉生成式AI

給科技置頂 2024-05-14 05:27:31

作者:王聰彬

市場上有很多生成式AI平台的選擇,爲什麽要選擇紅帽?

紅帽總裁兼CEO Matt Hicks直言紅帽的不同之處在于運行位置的核心靈活性。企業既可以對小型開源模型進行混合部署,也可以在公有雲或自有數據中心訓練模型,同時支持主要的GPU供應商。

最近在Red Hat Summit上,紅帽發布了一系列與人工智能相關的內容,包括Linux AI(RHEL AI)和OpenShift AI的最新進展。

Matt Hicks表示,RHEL用于運行所有可以在Linux上運行的應用程序,RHEL AI則用于運行你可以通過訓練和定制的大型語言模型的AI部分。OpenShift用于管理可以在RHEL上以分布式方式跨集群運行的所有應用程序,OpenShift AI則以相同的方式管理一系列模型,高效地分割訓練、使用和提供服務。

紅帽總裁兼CEO Matt Hicks

Linux AI(RHEL AI)開源AI的創新

RHEL AI是一個基礎模型平台,能夠使用戶更加便捷地開發、測試和部署生成式人工智能(GenAI)模型。該解決方案被封裝成一個優化的、可啓動的RHEL鏡像,用于在混合雲環境中部署單個服務器,並已集成到OpenShift AI中。

在意識到IBM研究院開發的大規模對話機器人對齊(LAB)技術能顯著提升模型性能後,IBM和紅帽決定推出InstructLab,這是一個圍繞LAB方法和IBM開源Granite模型構建的開源社區。InstructLab項目的目標是使開發者通過簡化LLM的創建、構建和貢獻過程,像參與任何其他開源項目一樣,將LLM開發的權力交到開發者手中。

RHEL AI融合了企業級就緒的InstructLab項目和Granite語言與代碼模型,及全球領先的企業級Linux平台,簡化了混合基礎設施環境中的部署。RHEL AI包括:

紅帽支持和保障的開源許可Granite語言和代碼模型;提供支持並具有生命周期管理的InstructLab分發版本,這是一種可擴展且成本效益高的解決方案,能夠增強大型語言模型(LLM)的功能,並使知識與技能的貢獻得到更廣泛的用戶接納;通過RHEL鏡像方式提供的優化可啓動模型運行實例,包括Granite模型和InstructLab工具包,及優化的Pytorch運行時庫和針對AMD Instinct™ MI300X、Intel和NVIDIA GPU以及NeMo框架的加速器;紅帽提供的完整企業支持和生命周期保證,從可信的企業産品分發開始,提供24小時全天候生産支持和擴展的生命周期支持。

“RHEL AI的主要目標是利用硬件加速,進行模型的訓練和運行。”Matt Hicks說,RHEL AI更專注于爲大型語言模型創建業務安全、管理生命周期和提供可預測性,並使企業能夠對其進行修改。

OpenShift AI增強預測性和生成式AI的靈活性

紅帽OpenShift AI是基于紅帽OpenShift構建的開放式混合人工智能(AI)和機器學習(ML)平台,幫助企業在混合雲環境中大規模創建並交付人工智能支持的應用。

紅帽OpenShift AI引入了新的增強功能,包括獲取最新的AI/ML創新和以人工智能爲中心的龐大合作夥伴生態系統的支持。最新版本紅帽OpenShift AI 2.9,提供了邊緣模型服務、增強型模型服務、采用Ray支持分布式工作負載、改進模型開發、模型監控和可視化、新的加速器配置文件。

在Matt Hicks看來,構建一個堅實的混合雲基礎對企業AI至關重要。許多企業嘗試使用規模較小的模型進行微調和訓練,但往往成效不佳。所以他們會轉向“全知模型”——通常在公共雲中運行的模型,參數量超過一萬億,這些模型雖然是開箱即用,但運行和訓練成本相當之高。

無論是在筆記本、邊緣還是任何地方,混合雲對雲充分發揮AI的潛力都是關鍵。企業必須改進這些小型模型,使其更好地適應實際任務,這就需要在特定用例上完成最後一段訓練。

Red Hat Summit上紅帽展示了在開放混合雲中賦能人工智能戰略,支持人工智能工作負載在數據所在的地方運行,無論是在數據中心、多個公有雲或邊緣。紅帽的平台爲這些工作負載提供跨環境的一致性,無論它們在何處運行,都可以順利推進企業的人工智能創新。

0 阅读:2

給科技置頂

簡介:感謝大家的關注