訂閱
糾錯(cuò)
加入自媒體

大模型時(shí)代,洗牌在即,存儲(chǔ)、服務(wù)器、網(wǎng)絡(luò)廠商何去何從?

大模型正在改變一切

改變著我們的生活與工作

驅(qū)動(dòng)IT基礎(chǔ)設(shè)施加速變革

【全球云觀察 | 熱點(diǎn)關(guān)注】

模型變小是大趨勢(shì),不是什么都大的好,比如玉米還是越小越香甜,越小越糯越可口。

因此,企業(yè)級(jí)IT廠商在行業(yè)大模型的發(fā)展新趨勢(shì)中,也就可以很好地分得一杯羹了。只是僧多粥少,就看各自修為了。

此外,對(duì)于想在這個(gè)領(lǐng)域有所作為的大模型的創(chuàng)新公司而言,業(yè)內(nèi)人士分析指出,目前可以加強(qiáng)四個(gè)方面的技術(shù)方向。

一是,語(yǔ)義搜索(Semantic Search),這是現(xiàn)代搜索引擎用來(lái)返回最相關(guān)的搜索結(jié)果的信息檢索過(guò)程。目前谷歌在采用這種方式,Semantic Search著重于搜索查詢背后的含義,甚至可以根據(jù)用戶的查詢內(nèi)容而確定內(nèi)部建議,而不是傳統(tǒng)的關(guān)鍵字匹配。

二是,檢索增強(qiáng)生成(RAG,Retrieval Augmented Generation),F(xiàn)acebook提出了一種檢索增強(qiáng)生成RAG模型的架構(gòu),實(shí)現(xiàn)了端到端的可微模型,構(gòu)成部分包括了問(wèn)題編碼器、神經(jīng)檢索器、生成器模型三個(gè)方面。這是自然語(yǔ)言處理(NLP)的創(chuàng)新應(yīng)用,

三是,文檔分析(Document analysis),主要處理和分析上傳的客戶端文件和文檔,包括針對(duì)政策、流程、準(zhǔn)則、還有一些記錄等等文檔分析,基于上下文理解需求,通過(guò)檢查描述業(yè)務(wù)環(huán)境或現(xiàn)有組織資產(chǎn)的可用材料來(lái)獲取業(yè)務(wù)分析信息。

四是,生成式人工智能聊天(Generative Al Chat),這是基于深度學(xué)習(xí)和自然語(yǔ)言處理技術(shù)的人工智能系統(tǒng),就像一個(gè)使用通用大型語(yǔ)言模型(LLM),類似于ChatGPT的聊天機(jī)器人一樣,可以實(shí)現(xiàn)總結(jié)文章,生成文本,甚至起草電子郵件,以及升級(jí)對(duì)圖片、視頻的智能分析與生成。主要也是在內(nèi)容媒體如文本、圖像、音頻、視頻的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,以創(chuàng)建新的文本、音頻、圖像等。

當(dāng)然,在當(dāng)前情況下,任何一家有志于行業(yè)大模型趕大潮的企業(yè)級(jí)IT廠商,都必須盡早下場(chǎng),盡早儲(chǔ)備,盡早發(fā)展行業(yè)大模型生態(tài),要不然再遲疑的話,粥就沒(méi)了,后面就只剩下刷鍋水了。

早入者優(yōu)勢(shì)明顯,畢竟針對(duì)行業(yè)大模型的服務(wù)器方案,企業(yè)級(jí)存儲(chǔ)方案,以及網(wǎng)絡(luò)方案都需要做一定的創(chuàng)新。

比如在服務(wù)器方案方面,如何將AI服務(wù)器端的GPU資源充分發(fā)揮,不被浪費(fèi)就是一個(gè)大進(jìn)步,AI算力資源利用率的提升之道就很值得企業(yè)級(jí)IT廠商為之一戰(zhàn),一戰(zhàn)成名的可能性非常大。為什么?

據(jù)業(yè)內(nèi)人士分析,目前全球AI算力資源利用率都很低,不少企業(yè)用戶的GPU資源長(zhǎng)期處于閑置狀態(tài)。倘若可以發(fā)揮出閑置GPU資源價(jià)值,便是對(duì)企業(yè)用戶和企業(yè)級(jí)IT廠商一大利好。因此像國(guó)內(nèi)外的浪潮信息、新華三、華為、聯(lián)想、中科曙光、超聚變、寧暢、中興、Dell EMC、HPE、超微、寶德等服務(wù)器廠商,都需要在GPU資源利用率方面下功夫,下真功夫讓企業(yè)用戶得實(shí)惠,那么必然在這場(chǎng)AI服務(wù)器血拼之爭(zhēng)中可以感受到的“獲得感”很強(qiáng)。

其實(shí),在企業(yè)級(jí)存儲(chǔ)方面,也需要下功夫。大模型變小雖然是大趨勢(shì),但再小的行業(yè)模型訓(xùn)練都不可能只是一臺(tái)服務(wù)器+存儲(chǔ)。訓(xùn)練不僅需要高性能存儲(chǔ)方案,同時(shí)還需要在降本增效上找到更好的分布式存儲(chǔ)方案。在這個(gè)方面目前已經(jīng)有企業(yè)級(jí)存儲(chǔ)廠商在做了,比如有的存儲(chǔ)廠商推出了面向行業(yè)大模型訓(xùn)練的分布式存儲(chǔ)系統(tǒng)。為此像國(guó)內(nèi)外企業(yè)級(jí)存儲(chǔ)廠商如新華三、中科曙光、浪潮信息、華為、聯(lián)想凌拓、超聚變、同有科技、中興、TaoCloud大道云行、焱融科技、XSKY、杉巖數(shù)據(jù)、Dell EMC、Hitachi Vantara、HPE、IBM、Oracle、DDN等,需要在企業(yè)級(jí)存儲(chǔ)與AI場(chǎng)景特別是大模型訓(xùn)練與推理場(chǎng)景上做文章,做足了文章,后面的舞臺(tái)將會(huì)更大,想怎么跳就怎么跳。

大模型時(shí)代,企業(yè)級(jí)存儲(chǔ)作為AI打造數(shù)據(jù)底座,隨著模型變小進(jìn)入百行百業(yè),存儲(chǔ)也將越來(lái)越重要。這里提到的企業(yè)級(jí)存儲(chǔ)廠商有全球科技巨頭,也有國(guó)內(nèi)年?duì)I收2-6億元的初創(chuàng)公司,都比較有代表性。

在針對(duì)行業(yè)大模型發(fā)展的網(wǎng)絡(luò)方面也需要?jiǎng)?chuàng)新,大模型訓(xùn)練與推理,都需要更好的網(wǎng)絡(luò)性能來(lái)支撐,以更優(yōu)化的網(wǎng)絡(luò)延遲將算力能力發(fā)揮到極致,從而獲得更高效的模型訓(xùn)練結(jié)果?梢姼咝ЬW(wǎng)絡(luò)需要像國(guó)內(nèi)外的網(wǎng)絡(luò)廠商繼續(xù)創(chuàng)新與努力。比如思科、新華三、華為、銳捷網(wǎng)絡(luò)、中興、瞻博網(wǎng)絡(luò)Juniper、康普網(wǎng)絡(luò)、邁普、博科(Brocade)等在網(wǎng)絡(luò)技術(shù)領(lǐng)域有所深厚的積累,更需要厚積薄發(fā),在大模型之戰(zhàn)中發(fā)揮出網(wǎng)絡(luò)創(chuàng)新的后勁。

可見,一步一步,大模型正在改變著一切,改變著我們的生活與工作,并驅(qū)動(dòng)IT基礎(chǔ)設(shè)施加速變革,迎來(lái)下一輪存儲(chǔ)行業(yè)格局洗牌、服務(wù)器行業(yè)格局洗牌、網(wǎng)絡(luò)行業(yè)格局洗牌。那么,誰(shuí)將會(huì)勝出呢?拭目以待。

【全球云觀察 |全球存儲(chǔ)觀察 |阿明觀察 |科技明說(shuō)】專注科技公司分析,用數(shù)據(jù)說(shuō)話,帶你看懂科技。本文和作者回復(fù)僅代表個(gè)人觀點(diǎn),不構(gòu)成任何投資建議。

       原文標(biāo)題 : 大模型時(shí)代,洗牌在即,存儲(chǔ)、服務(wù)器、網(wǎng)絡(luò)廠商何去何從?

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)