微軟欲自研AI芯片支持OpenAI,壓力給到英偉達
4月19日,美國科技媒體 The Information 爆料,ChatGPT背后的大股東微軟正在研發(fā)自己的芯片“雅典娜”(Athena)。
此次微軟公司自研芯片主要應(yīng)用于 ChatGPT 背后的生成式 AI 技術(shù),用途為訓練大語言模型(LLM)和 AI 推理(inference)。
微軟早在2019年就已開始著手研發(fā)這款芯片。芯片已經(jīng)提供給了小部分微軟的員工,以及ChatGPT開發(fā)商 OpenAI 的員工,他們正在測試并使用這些芯片。
資本大佬和初創(chuàng)新星的蜜戀
要說AI 圈里的當紅炸子雞,定是擁有 ChatGPT 技術(shù)的OpenAI 莫屬,微軟則是OpenAI背后的資本方。
早在兩方展開密切合作之前,雙方都在生存困境中掙扎許久——微軟雖為資方巨擘,但在科技圈仍然相當隱忍,在云計算和人工智能領(lǐng)域總有亞馬遜和谷歌壓制一頭。而OpenAI 最初是一家50人的非盈利性質(zhì)的初創(chuàng)小公司,面臨著所有的AI創(chuàng)企一樣的問題:AI開發(fā)成本翻番、“要理想還是面包”、副總裁帶隊離職團隊潰不成軍等問題,時任OpenAI首席技術(shù)官的布羅克曼擔心被谷歌旗下的DeepMind等對手甩在身后......
從當前審視這個長達五年的ChatGPT產(chǎn)品研發(fā)落地的故事,雙方陷入“蜜戀”情理之中,同一個賽道,相同的目標和突破訴求,適配的合作者相見恨晚,一拍即合。
2020年7月,微軟向初創(chuàng)公司OpenAI投資10億美元,自此開始了和OpenAI 的“熱戀式合作”。2021年微軟再次投資20億,微軟的Azure OpenAI開始集成用戶可直接通過相關(guān)API進行調(diào)用的GPT-3模型,自此GPT技術(shù)開始初步商業(yè)化。2023年1月24日,微軟追加投資100億,與OpenAI再次擴大合作關(guān)系。此輪投資后,微軟獲得了 OpenAI 75% 的利潤分紅權(quán)直到收回投資,之后微軟將擁有 OpenAI 49%分紅權(quán)。
微軟和OpenAI之間的關(guān)系逐漸變得更加深入和復雜,他們的財務(wù)和技術(shù)命運糾纏在一起。他們有共同的目標期許和行業(yè)共識,其中一點是明確的:現(xiàn)在還處于早期階段。
OpenAI持續(xù)燒錢,微軟探索自研路徑
一項新技術(shù)航程的初期,借船出海也許能走的更快一些,為了訓練ChatGPT,微軟下了足夠多的血本,但時間一久問題便逐漸暴露。目前,讓這對“熱戀期情侶”焦灼的是——外購芯片太過燒錢,并非長久之宜。
在用戶使用ChatGPT時,這一軟件需要識別人類發(fā)出的指令,并模仿人類回答相應(yīng)的問題,這一過程需要處理大量的數(shù)據(jù),對芯片算力的要求極高。
微軟目前使用的 AI 芯片是英偉達芯片,ChatGPT消耗的總算力約為3640PF-days,假如每秒計算一千萬億次,需要計算3640天。微軟將3萬多個英偉達A100芯片連起來為OpenAI打造超級算力。這項貼心的舉動已耗費微軟數(shù)億美元,按照趨勢,日后花費只會更甚,還經(jīng)常會被芯片供應(yīng)商掣肘。
此舉不僅為了減少自身對英偉達 GPU 的依賴,還是應(yīng)對同行壓力的必由之舉,隨著生成式AI大爆發(fā),包括亞馬遜和谷歌等科技巨頭都已推出自研AI芯片。
只不過,微軟早在5年前就秘密行動了。自研芯片內(nèi)部代號「雅典娜」(Athena),300人共同研發(fā),并已由微軟內(nèi)部機器學習相關(guān)員工和 OpenAI 開發(fā)者組成的小團隊進行測試。
微軟希望 AI 芯片 Athena 的性能優(yōu)于從其他供應(yīng)商處購買的芯片,從而節(jié)省其在昂貴的AI業(yè)務(wù)上的時間和成本。
微軟的 AI 芯片將用于訓練大語言模型并支持推理,這些都是生成式 AI 需要的。我們以 ChatGPT 為例,它需要利用 AI 處理大量數(shù)據(jù)、識別模式并創(chuàng)建模仿人類對話的全新輸出。預計微軟將在明年之前將「雅典娜」提供給內(nèi)部和OpenAI使用。
英偉達,AI芯片的統(tǒng)治者
全球GPU市場中,基本被Nvidia、Intel和AMD三家壟斷。目前主導 AI 芯片的是英偉達公司,在機器學習領(lǐng)域,NVIDIA GPU市占率高達95%以上,至今沒有對手可以匹敵。
2019 年,前四大云供應(yīng)商 AWS、谷歌、阿里巴巴和 Azure 中 97.4% 的 AI 加速器實例(用于提高處理速度的硬件)部署了英偉達 GPU。幾乎所有 AI 里程碑都發(fā)生在英偉達硬件上。
縱觀 AI 芯片市場,Nvidia H100 是訓練機器學習系統(tǒng)的最流行 GPU 之一,在市場日益短缺的情況下,它在 eBay 等經(jīng)銷商那里的售價高達 40,000 美元。高漲的需求,加上產(chǎn)能的限制,英偉達芯片不僅時常短缺而且價格昂貴,給微軟、谷歌這類急于擴充算力的公司形成了較大的壓力。越來越多的企業(yè)開始使用人工智能來理解他們收集的海量數(shù)據(jù),而各國政府則在向深度學習研究領(lǐng)域投入資金以保持領(lǐng)先地位。
顯然,整個AI芯片市場都需要更多、更好的人工智能芯片。
挑戰(zhàn)者正在試圖趕上英偉達在 AI 芯片市場上的統(tǒng)治者地位。2015年,谷歌開始制造自己的芯片;2016年,亞馬遜收購 Annapurna Labs 后便將 Alexa 的大腦轉(zhuǎn)移到自己的 Inferentia 芯片上;2019 年,英特爾為其 Xeon 數(shù)據(jù)中心 CPU 添加了 AI 加速模塊。百度擁有昆侖;高通擁有 Cloud AI 100;IBM 正在致力研發(fā)一種節(jié)能設(shè)計;AMD 收購了 Xilinx 用于 AI 數(shù)據(jù)中心產(chǎn)品等等,越來越多的云服務(wù)巨頭紛紛自研AI芯片。
有行業(yè)分析師評論道,對普通的云計算公司來說,他們的最佳方案是從英偉達那里購買。而對于谷歌、亞馬遜這樣的巨頭來說,自研芯片才是長久之道。
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術(shù)在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【限時免費下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
推薦專題
-
5 夾縫中的文遠知行
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市