訂閱
糾錯
加入自媒體

技術(shù)創(chuàng)新:蘋果在閃存上存儲大型語言模型(LLM)引領(lǐng)未來AI發(fā)展

2023-12-22 17:12
科聞社
關(guān)注

(本篇文篇章共1135字,閱讀時間約1分鐘)

2023年12月22日,據(jù)多家媒體報道,蘋果正積極探索在閃存上存儲大型語言模型(LLM)的技術(shù)創(chuàng)新,并計劃將其引入iPhone、iPad和Mac等設(shè)備,以在資源有限的環(huán)境中提高人工智能(AI)的運行效率。這一突破性進展將有望讓強大的Siri、實時語言翻譯以及融入攝影和增強現(xiàn)實的AI功能成為未來iPhone的獨特賣點。

傳統(tǒng)上,大型語言模型需要占用大量CPU和內(nèi)存資源。為了解決這一問題,蘋果的研究人員正在探索在有限內(nèi)存設(shè)備上存儲LLM的可能性。在一篇新發(fā)表的論文中,蘋果詳細(xì)介紹了他們利用閃存芯片存儲AI模型數(shù)據(jù)的創(chuàng)新技術(shù)。由于iPhone和Mac計算機上閃存大量可用,這項技術(shù)使用了一種稱為“Windowing”的方法,通過重復(fù)使用已處理的數(shù)據(jù),減少了對連續(xù)內(nèi)存獲取的需求,從而提高了整個過程的速度。

具體而言,兩種關(guān)鍵技術(shù)被引入,分別是“窗口化(Windowing)”和“行列捆綁(Row-Column Bundling)”。前者實現(xiàn)了數(shù)據(jù)的有效分組,減少了對內(nèi)存的頻繁讀取,而后者更有效地對數(shù)據(jù)進行捆綁,使得AI模型能夠更快地從閃存中讀取數(shù)據(jù)并提高其理解和生成語言的速度。

根據(jù)研究人員的介紹,這兩項技術(shù)的引入將使AI模型在iPhone可用RAM大小的兩倍范圍內(nèi)運行,極大地提高了在標(biāo)準(zhǔn)處理器上的速度,最高可達(dá)5倍,在圖形處理器上更是可達(dá)25倍。

蘋果對AI的重視不斷顯現(xiàn),從自家聊天機器人Apple GPT的推出到計劃中的iPhone 16系列搭載升級麥克風(fēng),以提升語音輸入功能。此外,有傳言稱,iOS 18將在明年正式到來時引入某種形式的生成式AI,進一步將蘋果推向人工智能技術(shù)的前沿。

這一技術(shù)創(chuàng)新有望為未來iPhone帶來更強大的AI功能,包括更智能的Siri、實時語言翻譯以及在攝影和增強現(xiàn)實領(lǐng)域的復(fù)雜AI驅(qū)動功能。蘋果的生成式AI模型,代號為“Ajax”,被認(rèn)為將與OpenAI的GPT-3和GPT-4競爭,具有高度復(fù)雜性和強大的語言理解和生成能力,為蘋果的生態(tài)系統(tǒng)帶來更深層次的AI整合。

*免責(zé)聲明:以上內(nèi)容整理自網(wǎng)絡(luò),僅供交流學(xué)習(xí)之用。如有內(nèi)容、版權(quán)問題,請留言與我們聯(lián)系進行刪除。

       原文標(biāo)題 : 技術(shù)創(chuàng)新:蘋果在閃存上存儲大型語言模型(LLM)引領(lǐng)未來AI發(fā)展

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標(biāo)題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號