劍指英偉達,硅谷大廠發(fā)力自研AI芯片
美國當?shù)貢r間11月15日,微軟Ignite技術(shù)大會在西雅圖揭幕。
集團CEO納德拉帶來了長達一個小時的揭幕演講,介紹微軟在ESG、新一代空芯光纖、Azure Boost數(shù)據(jù)中心等項目的新動態(tài)。而整場演講的重頭戲,非AI莫屬——尤其是首款自研AI芯片Azure Maia 100的亮相,成為場內(nèi)場外無數(shù)聚光燈下的焦點。
微軟重視AI人所共知,發(fā)力自研芯片也不是什么秘密。Maia 100的亮相,則是微軟的第一張階段性答卷,向外界表明自己的野心與實力。
有趣的是,英偉達CEO黃仁勛也來到現(xiàn)場,為Azure和英偉達合作的AI foundry service站臺。納德拉當著黃仁勛的面發(fā)布自研AI芯片,難免讓人浮想聯(lián)翩。
英偉達對高算力芯片的壟斷,早已成為硅谷眾大廠的心病。它們一方面離不開英偉達,另一方面又不想永遠被英偉達掣肘。當自研芯片成為潮流,微軟、Meta、谷歌、亞馬遜先后亮出壓箱底的寶貝,誰能真正掙脫枷鎖?
(圖片來自Pixabay)
微軟首款AI芯片來襲,Maia 100成色幾何?
首款芯片的命名從此前盛傳的Athena改成Maia,靈感大概是參考了NGC 2336星系。Maia可以譯為“明亮的藍色恒星”,根據(jù)NASA的觀測,NGC 2336星系近似螺旋形態(tài),直徑約20萬光年,也以旋臂中的藍色恒星聞名。以此命名自己的首顆AI芯片,微軟或許是想以深邃的太空借喻充滿想象力的AI世界,以及對算力的高追求。
Maia 100的亮相也不算突然,早在10月初就有媒體劇透微軟將在開發(fā)者大會上發(fā)布首款自研AI芯片,并將向Azure云客戶供應。不過微軟對自研芯片計劃的保密工作做得很好,直到正式發(fā)布后,外界才能真正了解其設計、算力和應用場景等詳細情況。
根據(jù)納德拉的介紹,Maia 100是一款AI加速芯片,基于Arm架構(gòu)設計,主要用于云端訓練、推理以及Azure的高負載云端運算。不過納德拉否認了將向云計算客戶供貨的傳聞,這款自研芯片將優(yōu)先滿足微軟自身的需求,并在合適的時機向合作伙伴和客戶開放。
Azure芯片部門負責人、微軟副總裁拉尼·博卡爾則補充道,Maia 100已經(jīng)在Bing和office的人工智能套件上測試。合作伙伴openAI也開始使用這款芯片進行測試部分產(chǎn)品和功能,比如GPT 3.5 Turbo。
(圖片來自Azure官網(wǎng))
至于測試的效果如何,微軟暫時還沒有給出具體報告。但納德拉和博卡爾強調(diào)Maia 100可以加快數(shù)據(jù)處理速度,尤其是在語音和圖像識別方面。
提速的關(guān)鍵,自然是算力。為了提升算力,微軟也是下了血本:采用臺積電的5nm制程工藝,晶體管數(shù)量達到1050億個。和今年4月被曝光的信息相比,Maia的制程工藝、設計架構(gòu)都沒有太多出入,性能表現(xiàn)或許還需在應用數(shù)據(jù)來檢驗。
不過橫向?qū)Ρ鹊脑挘琈aia 100和英偉達、AMD等大廠的產(chǎn)品在參數(shù)上還有很大差距。AMD在今年發(fā)布的專用于AI加速的MI 300X芯片晶體管數(shù)量達到1530億,更不用說算力超強的英偉達了。
以最近發(fā)布的H200為例,GPU核心和H100相同,但CUDA核數(shù)達到16896個,加速頻率1.83GHz,顯存具備更大的容量和更高帶寬,可以支持超大參數(shù)的大模型訓練與推理。官方給出的參數(shù)顯示,H200相較上一代產(chǎn)品在Llama2和ChatGPT的訓練速度分別能提升40%和60%。
可以看出,從MI 300X到H200,再到Maia 100,大廠對訓練參數(shù)量、訓練速度和芯片算力的追求是沒有上限的。大模型的迭代速度也在加快,只因各家大廠都想跑得比對手更快一步。
芯片是這場算力競賽里最關(guān)鍵的一環(huán),沒有人想在這上面掉鏈子。而為了擺脫對英偉達的依賴,自研就是最好的出路。
當自研AI芯片成為必選項
英偉達的芯片不是不好,反倒是太好了,好到直接滋生了兩個難以解決的問題:一是供不應求,二是價格高不可攀。
英偉達沒有正面回應H100和A100兩款最熱門產(chǎn)品的產(chǎn)能和需求,但據(jù)外媒報道,今年內(nèi)H100加速卡的產(chǎn)能至少同比增長了3倍,且仍有許多產(chǎn)能瓶頸無法解決。比如臺積電5nm生產(chǎn)線產(chǎn)能,英偉達的GPU必須使用臺積電的CoWoS封裝技術(shù),市面上完全找不到別的替代品。
供不應求,市場杠桿就會自動生效,調(diào)高價格、篩選客戶。從去年下半年開始,搶購GPU就成為硅谷大廠最重要的任務之一。大廠為了搶時間、保供應,囤的貨一個比一個多,階段產(chǎn)能愈發(fā)吃緊,繼而再次推高價格,形成一個死循環(huán)。
微軟在2019年投資openAI后算過一筆賬,為了支撐歷代ChatGPT的訓練,微軟每年光是采購A100的資金就在數(shù)億美元以上。而稍晚啟動的自研芯片計劃,每年開銷只需1億美元左右。白紙黑字擺在面前,大廠也不傻。本就有一定技術(shù),也有足夠流動資金的微軟、谷歌、亞馬遜、Meta們,紛紛加速擁抱自研芯片。
這當中,谷歌和亞馬遜是起步最早、成績也最突出的。單論研發(fā)實力,微軟甚至夠不著硅谷的第一梯隊。
得益于在手機領(lǐng)域的長期布局,谷歌積累了大量芯片技術(shù),除了美國本土之外,還在印度設置了大規(guī)模的芯片研發(fā)中心。2021年推出的自研芯片Tensor使用三星5nm先進制程,GPU性能較上一代產(chǎn)品大幅提升370%,狠狠秀了一把肌肉。
這幾年,谷歌從高通、蘋果、英偉達、博通挖來大量人才。最新消息顯示,谷歌計劃在2027年將博通剔除出AI芯片供應商的行列,每年將節(jié)省數(shù)十億美元的采購費用。而對標博通的TPU,就成為了谷歌AI芯片計劃的重點發(fā)力方向。
事實上,谷歌的TPU自研計劃也是由來已久。2021年,時任谷歌研究部門主管Cliff Young就透露,谷歌有長期的計劃,會在數(shù)據(jù)中心部署大量自研TPU,以加強云端運算速度,未來不排除將對外出售。
亞馬遜也是自研芯片的老玩家,其強大在于,建立了完整的自研芯片產(chǎn)業(yè)鏈,形成網(wǎng)絡芯片、服務器芯片、AI芯片三條產(chǎn)品線。在AI 芯片領(lǐng)域,亞馬遜的自研產(chǎn)品就通用計算芯片、機器學習訓練芯片、學習推理芯片等。
滿打滿算,從2013年推出首款自研芯片Nitro 1以來,亞馬遜已經(jīng)推出了超過10款自研芯片,無論數(shù)量還是覆蓋的領(lǐng)域,都遠超其他硅谷大廠。AWS在2020年便發(fā)布了用于訓練大模型的自研芯片Trainium,也是最早發(fā)力AI專用芯片的大廠之一,為AWS征服全球立下汗馬功勞。
就連落后一截的Meta,也在今年高調(diào)提出造芯計劃,推出定制芯片MTIA v1,并牽手高通、重組研發(fā)團隊。為了奪回主動權(quán)、節(jié)省開銷,大廠肯定會拼盡全力。接下來,不知道英偉達將如何接招?
取代英偉達談何容易,在博弈中合作將成為主題
硅谷大廠的反抗之心,黃仁勛當然了然于胸。與其說英偉達對微軟、亞馬遜、谷歌們的進攻無動于衷,倒不如說是有恃無恐——硅谷大廠的自研芯片算力遠不比上英偉達,也缺乏配套的AI軟硬件。想自供自給乃至取英偉達而代之,在現(xiàn)階段并不現(xiàn)實。
算力上的差距前文已有介紹,此處不再贅述。在芯片算力之外,英偉達還強在擁有Base Command(AI訓練端到端軟件服務)、AI Enterprise(提供平臺支持的企業(yè)級軟件)等大量配套設施。
(圖片來自英偉達官網(wǎng))
微軟等大廠自研AI芯片,是為了降低采購成本。但大模型從訓練到落地應用,需要的絕不止一顆芯片。當參數(shù)級別變得原來越高,開源程度不斷提升,需要使用的配套軟硬件也會越來越多,這時候大廠們就不得不重新算一下自己的賬本了。
高調(diào)發(fā)布自研芯片的微軟,就很清楚自己短時間內(nèi)離不開英偉達和AMD。納德拉之所以請黃仁勛到場助陣當然不是為了示威,而是示好。展望未來,大廠之間的暗中角力當然少不了,但合作還是主旋律。
黃仁勛出席微軟Ignite全球技術(shù)大會,是為了宣傳針對英偉達H100設計的NC H100 v5虛擬機,這是一項類似于AI代工的服務,可以幫助Azure的客戶和合作企業(yè)開發(fā)大語言模型。此外,微軟Azure仍在使用AMD的 MI300X加速虛擬機和最新的GPU提高AI模型訓練和推理速度。
值得一提的是,微軟在15日的技術(shù)大會上還宣布推出MaaS模型即服務,向用戶開放API接口,以便在云端部署自己的開源大模型。Meta等大廠據(jù)悉也將加入開源行列,Llama 2等知名大模型都會在英偉達的算力支撐下,陸續(xù)向第三方開放調(diào)用。
納德拉和黃仁勛心底盤算什么,外人看不見,也猜不透。但至少在明面上,兩人會繼續(xù)維持良好的合作關(guān)系,有錢一起賺。真正感到壓力山大的,其實是那些艱難求存的初創(chuàng)企業(yè)——畢竟大部分芯片企業(yè)都要依賴投資人和大廠的資金搞研發(fā),大廠發(fā)力自研后必然會削減外部投資,甚至還會擠壓前者的生存空間。
從2020年的Wave Computing開始,這幾年時不時有AI芯片獨角獸裁員、賣身甚至直接倒閉。不久歐倩,英國GPU芯片公司Imagination也被爆將進行裁員,比例在20%左右。
Wave Computing也算得上紅極一時,當初曾聲稱要追趕英偉達,自家的DPU產(chǎn)品在加速神經(jīng)網(wǎng)絡的訓練速度上要超過英偉達的GPU1000倍,基于DataFlow架構(gòu)設計的產(chǎn)品也算得上特立獨行。
不過之后的故事大家都清楚了,Wave Computing的DPU在某些參數(shù)上確實超過了英偉達的GPU,但不具備推廣意義。因為前者缺乏通用計算架構(gòu),也無法針對不同應用場景進行定制化改造,更沒有足夠數(shù)量的開發(fā)者。在燒光了投資人的資金后,最終只能走向破產(chǎn)清算的地步。
無獨有偶,openAI在日前悄悄更新,也讓部分AI初創(chuàng)企業(yè)感到“末日將至”,更有外媒表示openAI“正在殺死生成式人工智能初創(chuàng)公司”。由此可以看出,做AI大模型和做AI芯片的公司生存壓力巨大,研發(fā)難度和高企的經(jīng)營成本隨時都可能將它們壓垮。
大公司和初創(chuàng)企業(yè)之間的矛盾由來已久,大廠發(fā)力自研AI芯片只不過是一劑催化劑。想在巨頭的夾縫謀得一絲生存空間,初創(chuàng)企業(yè)要拿出更多真本事。
來源:雷科技
原文標題 : 劍指英偉達,硅谷大廠發(fā)力自研AI芯片
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術(shù)在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產(chǎn)業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
-
精彩回顧立即查看>> 【限時免費下載】TE暖通空調(diào)系統(tǒng)高效可靠的組件解決方案
推薦專題
-
5 夾縫中的文遠知行
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術(shù)專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結(jié)構(gòu)工程師 廣東省/深圳市