訂閱
糾錯(cuò)
加入自媒體

AI落地難?是時(shí)候用開(kāi)源降低AI落地門(mén)檻了

過(guò)去三十多年,從Linux到KVM,從OpenStack到Kubernetes,IT領(lǐng)域眾多關(guān)鍵技術(shù)都來(lái)自開(kāi)源。開(kāi)源技術(shù)不僅大幅降低了IT成本,也降低了企業(yè)技術(shù)創(chuàng)新的門(mén)檻。

那么,在生成式AI時(shí)代,開(kāi)源能夠?yàn)锳I帶來(lái)什么?

紅帽的答案是:開(kāi)源技術(shù)將推動(dòng)AI更快、更廣泛的應(yīng)用到各行各業(yè)中。

自1993年成立至今,紅帽一直是堅(jiān)定的開(kāi)源技術(shù)布道者和構(gòu)建者。透過(guò)不久前的2024紅帽論壇,「智能進(jìn)化論」看到了開(kāi)源技術(shù)與AI碰撞的三大關(guān)鍵詞:簡(jiǎn)單的AI、開(kāi)源的AI、混合的AI。

01

簡(jiǎn)單的AI從一臺(tái)Laptop開(kāi)啟的企業(yè)AI應(yīng)用之旅

2024年9月,AI 托管平臺(tái) Hugging Face 宣布其收錄的 AI 模型數(shù)量已突破 100 萬(wàn)個(gè),足以證明生成式AI與大模型的火爆。

但是從通用的基礎(chǔ)模型,到解決不同企業(yè)實(shí)際業(yè)務(wù)問(wèn)題之間,仍有不小的距離。算力、人才、模型訓(xùn)練平臺(tái)和工具、技術(shù)經(jīng)驗(yàn)都是大模型落地過(guò)程中的普遍痛點(diǎn)。比如:

“能不能讓基礎(chǔ)模型使用企業(yè)自己的數(shù)據(jù),在我選擇的環(huán)境里做調(diào)優(yōu),同時(shí)只需要花費(fèi)相對(duì)較小的投入?”

“我們想基于基礎(chǔ)模型開(kāi)發(fā)適配自身業(yè)務(wù)的小模型,但是團(tuán)隊(duì)沒(méi)有AI開(kāi)發(fā)經(jīng)驗(yàn),沒(méi)有開(kāi)發(fā)平臺(tái),甚至沒(méi)有足夠的GPU算力資源怎么開(kāi)始?”

正如過(guò)去數(shù)年間,紅帽通過(guò)RHEL 和 OpenShift,將Linux 和容器技術(shù)加速普及一樣,用開(kāi)源的方式將AI引入企業(yè),也是AI時(shí)代紅帽的愿景。

為此,紅帽推出了一系列AI平臺(tái)和產(chǎn)品,組成了企業(yè)AI應(yīng)用三步曲:

第一步,借助Podman Desktop和InstructLab,用戶(hù)可以在最小資源配置下試用開(kāi)源AI模型和工具,比如在筆記本電腦上用CPU試跑AI模型,而不需要額外的GPU卡。

過(guò)去,很多人認(rèn)為AI模型的訓(xùn)練不可能在一臺(tái)PC上完成,必須在配備GPU卡的大型數(shù)據(jù)中心完成。紅帽徹底改變了這一現(xiàn)實(shí),同時(shí)也讓沒(méi)有IT開(kāi)發(fā)經(jīng)驗(yàn)的數(shù)據(jù)科學(xué)家和業(yè)務(wù)人員都可以參與到AI模型訓(xùn)練中。

借助 Podman AI Lab 擴(kuò)展包,Podman Desktop可以讓用戶(hù)在本地環(huán)境中構(gòu)建、測(cè)試和運(yùn)行基礎(chǔ)模型。只需完成幾個(gè)步驟即可設(shè)置試驗(yàn)環(huán)境,用來(lái)試用不同的基礎(chǔ)模型。

InstructLab是一款用于基礎(chǔ)模型對(duì)齊的開(kāi)源工具,它可以幫你從開(kāi)源社區(qū)把需要的基礎(chǔ)模型下載到本地進(jìn)行訓(xùn)練,并大幅降低了模型微調(diào)的數(shù)據(jù)準(zhǔn)備和技術(shù)門(mén)檻。

第二步,通過(guò)Red Hat Enterprise Linux AI(RHEL AI),在云端服務(wù)器上進(jìn)一步訓(xùn)練模型。

如果第一步測(cè)試效果滿(mǎn)意,用戶(hù)就可以在云端服務(wù)器上進(jìn)行生產(chǎn)級(jí)的模型訓(xùn)練。

RHEL AI是一個(gè)基礎(chǔ)模型平臺(tái),它使用戶(hù)能夠更加便捷地開(kāi)發(fā)、測(cè)試和部署生成式AI模型。

RHEL AI中整合了IBM研究院的開(kāi)源授權(quán)大模型Granite、模型對(duì)齊工具InstructLab,以及包括英偉達(dá)、英特爾和AMD的GPU加速器。該解決方案被封裝成一個(gè)優(yōu)化的、可啟動(dòng)的RHEL鏡像,用于在混合云環(huán)境中部署單個(gè)服務(wù)器,并已集成到OpenShift AI中。

第三步,通過(guò)OpenShift AI,在更大規(guī)模的分布式集群中進(jìn)行生產(chǎn)級(jí)別的模型訓(xùn)練和部署。

如果在前面兩個(gè)環(huán)節(jié)中,模型都收獲了滿(mǎn)意的效果,就可以通過(guò)更大規(guī)模的分布式集群投入生產(chǎn)環(huán)境。

OpenShift AI是紅帽的混合機(jī)器學(xué)習(xí)運(yùn)營(yíng)(MLOps)平臺(tái),能夠在分布式集群環(huán)境中大規(guī)模運(yùn)行模型和InstructLab,可以支撐大型團(tuán)隊(duì)完成ML Ops的工作流程。而且,OpenShift AI支持跨云混合部署,支持本地?cái)?shù)據(jù)中心、私有云、公有云、混合云等多種環(huán)境。

在三步曲之外,紅帽還推出了豐富的AI賦能產(chǎn)品,比如Red Hat Lightspeed通過(guò)集成生成式人工智能(GenAI),為初學(xué)者和專(zhuān)家提供更順暢的工作體驗(yàn)。將Red Hat Lightspeed應(yīng)用于RHEL AI、OpenShift AI,用戶(hù)可以通過(guò)自然語(yǔ)言的方式管理操作系統(tǒng)、容器平臺(tái)甚至集群。

02

開(kāi)源的AI用開(kāi)源社區(qū)推動(dòng)大模型迭代

“你可以隨處選擇運(yùn)行 AI 的位置,而且它將基于開(kāi)源。”在2024年5月的紅帽全球峰會(huì)上,紅帽CEO Matt Hicks曾這樣表示。

可以說(shuō),開(kāi)源開(kāi)放的理念,貫穿了紅帽所有的AI產(chǎn)品與戰(zhàn)略。

InstructLab就是一個(gè)典型的例子。InstructLab既是模型對(duì)齊的工具,也是一個(gè)開(kāi)源社區(qū),開(kāi)創(chuàng)了一種通過(guò)開(kāi)源社區(qū)推動(dòng)開(kāi)源模型的持續(xù)進(jìn)步的新模式。

“紅帽設(shè)計(jì)InstructLab有兩個(gè)主要目的:第一,讓客戶(hù)基于Granite基礎(chǔ)模型,使用InstructLab和自身數(shù)據(jù)訓(xùn)練出符合需求的模型。第二,我們邀請(qǐng)用戶(hù)更進(jìn)一步,將知識(shí)和技能反饋至上游的開(kāi)源社區(qū),將其整合到社區(qū)版本的Granite模型中。因此,InstructLab是連接社區(qū)和客戶(hù)的橋梁。”紅帽大中華區(qū)解決方案架構(gòu)部高級(jí)總監(jiān)王慧慧表示。

同時(shí),在推動(dòng)AI落地方面,開(kāi)放共創(chuàng)是紅帽堅(jiān)守的理念。

“在AI應(yīng)用落地方面,紅帽引入了“開(kāi)放實(shí)驗(yàn)室”的概念,與客戶(hù)的顧問(wèn)團(tuán)隊(duì)合作,針對(duì)企業(yè)的研發(fā)、生產(chǎn)、市場(chǎng)行銷(xiāo)和客戶(hù)支持等環(huán)節(jié),一起找出最具效能的應(yīng)用場(chǎng)景。從一個(gè)小應(yīng)用成功起步,再逐步擴(kuò)展至更大的場(chǎng)景。”紅帽全球副總裁兼大中華區(qū)總裁曹衡康表示。

“關(guān)于AI最后一公里的落地,紅帽今年加速了與本土ISV及方案開(kāi)發(fā)商的合作,以滿(mǎn)足不同行業(yè)和企業(yè)的個(gè)性化需求。”紅帽大中華區(qū)資深市場(chǎng)總監(jiān)趙文斌表示。

自今年5月發(fā)布全棧AI產(chǎn)品以來(lái),紅帽AI系列產(chǎn)品在國(guó)內(nèi)市場(chǎng)加速落地。作為紅帽AI產(chǎn)品的首批客戶(hù)之一,國(guó)內(nèi)某保險(xiǎn)行業(yè)企業(yè)在引入紅帽的AI產(chǎn)品后,其代碼合并和審查的準(zhǔn)確率大大提升,顯著提升了開(kāi)發(fā)效率與客戶(hù)滿(mǎn)意度。

“去年紅帽大中華區(qū)業(yè)務(wù)創(chuàng)下了歷史新高,今年也繼續(xù)以雙位數(shù)增長(zhǎng)。我們的增長(zhǎng)來(lái)自于越來(lái)越多的企業(yè)選擇開(kāi)源技術(shù),認(rèn)識(shí)到開(kāi)源的優(yōu)勢(shì)。”曹衡康表示。

紅帽全球副總裁兼大中華區(qū)總裁 曹衡康

03

混合的AI企業(yè)發(fā)展自主AI的必然選擇

云計(jì)算時(shí)代,企業(yè)根據(jù)不同的業(yè)務(wù)負(fù)載可以靈活選擇裸金屬、公有云、私有云、混合云、專(zhuān)屬云等多種部署方式。

正如云是混合的,AI也是混合的。

隨著生成式AI技術(shù)的不斷成熟,越來(lái)越多企業(yè)意識(shí)到,沒(méi)有一款基礎(chǔ)模型可以做到一家獨(dú)大。企業(yè)根據(jù)不同業(yè)務(wù)選擇最適合的模型將成為一種趨勢(shì),多個(gè)業(yè)務(wù)場(chǎng)景對(duì)應(yīng)多個(gè)模型將成為常態(tài)。

從這個(gè)層面看,生成式AI時(shí)代也是混合AI時(shí)代。自2013年發(fā)布開(kāi)放混合云戰(zhàn)略以來(lái),這種跨開(kāi)放混合云的能力正是紅帽的優(yōu)勢(shì)所在,其也將在AI時(shí)代進(jìn)一步延續(xù)。

紅帽O(jiān)penShift 產(chǎn)品線(xiàn)經(jīng)理佟一舟介紹了一個(gè)金融行業(yè)客戶(hù)的案例。該企業(yè)在大模型出現(xiàn)之前就擁有豐富的ML小模型開(kāi)發(fā)實(shí)力。然而在構(gòu)建生成式AI研發(fā)、生產(chǎn)、實(shí)施平臺(tái)的時(shí)候,該企業(yè)果斷選擇了紅帽。

一方面,大模型時(shí)代構(gòu)建AI平臺(tái)的難度和復(fù)雜度與小模型時(shí)代不可同日而語(yǔ)。另一方面,在多模型的混合場(chǎng)景下,企業(yè)需要找到一個(gè)中立的AI平臺(tái)作為合作伙伴,才能避免被單一廠(chǎng)商綁定的風(fēng)險(xiǎn)。

“很多客戶(hù)希望AI平臺(tái)企業(yè)能夠穩(wěn)定為他們提供未來(lái)10年的服務(wù),而目前很多底層技術(shù)都來(lái)自開(kāi)源技術(shù)。紅帽30年的開(kāi)源積淀,正是很多客戶(hù)看中的關(guān)鍵優(yōu)勢(shì)。”佟一舟表示。

結(jié)語(yǔ)

在生成式AI的時(shí)代浪潮中,開(kāi)源技術(shù)正以其獨(dú)特的魅力和強(qiáng)大的推動(dòng)力,為AI的廣泛應(yīng)用鋪設(shè)了一條堅(jiān)實(shí)的道路。

開(kāi)源與AI的碰撞,不僅降低了AI落地的門(mén)檻,更讓企業(yè)擁有了更多的自主權(quán)和選擇空間。

文中圖片來(lái)自攝圖網(wǎng)

END

本文為「智能進(jìn)化論」原創(chuàng)作品,

       原文標(biāo)題 : AI落地難?是時(shí)候用開(kāi)源降低AI落地門(mén)檻了

聲明: 本文由入駐維科號(hào)的作者撰寫(xiě),觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)