訂閱
糾錯
加入自媒體

性能太強大必須使用“液冷”,谷歌發(fā)布 TPU 3.0

2018-05-10 00:36
來源: 動點科技

5月9日消息,在谷歌 I/O 開發(fā)者大會上,谷歌宣布發(fā)布 TPU 3.0。

谷歌首先演示了谷歌一系列的機器學習成果,包括 Gmail 系統(tǒng)可以自動給用戶推薦可能要打的字,在谷歌照片中,系統(tǒng)會根據照片建議用戶對照片驚醒相應編輯,比如調高亮度、給黑白照片加色、將斜著拍攝的文件拉正等。谷歌表示,要想更好地實現(xiàn)這些功能,必須要有強大的計算能力的支持。于是便引出了 TPU 3.0。

谷歌表示,TPU 3.0 的性能比去年發(fā)布的 TPU2.0 要強大 8 倍左右,可提供超過 100 千兆次的機器學習硬件加速能力。 為此,谷歌不得不在數(shù)據中心中添加液態(tài)冷卻裝置,用于散熱。

據了解,谷歌在 2016 年首次宣布了 TPU 計劃。 TPU 被作為一種特定目的芯片而專為機器學習設計,其因幫助 AlphaGo 打敗李世石而名聲大噪,隨后,谷歌還將這一芯片用在了其服務的方方面面,比如搜索、翻譯、相冊等軟件背后的機器學習模型中。

去年 5 月,谷歌又宣布第二代的 TPU 系統(tǒng)已經全面投入使用,并且已經部署在了 Google Compute Engine 平臺上,據了解,TPU2.0 具有四個芯片,每秒可處理 180 萬億次浮點運算。同時,谷歌還表示找到了一種方法,使用新的計算機網絡將 64 個 TPU 組合到一起,升級為所謂的 TPU Pods,可提供大約 11500 萬億次浮點運算能力。

據了解,目前機器學習主要都運用 GPU 來做模型的訓練,但由于 GPU 并非專門為機器學習而設計,所以市面上已經有越來越多的企業(yè)開始研發(fā)機器學習專門的芯片產品,而谷歌的 TPU 便是其中的佼佼者,TPU 3.0 的發(fā)布,對 GPU 巨頭英偉達而言,或許是一件“狼來了”的故事。

另外,對于 TPU 3.0 谷歌在 I/O 開發(fā)者大會上并沒有更加詳細的介紹,不過,外界認為其應該與 TPU 2.0 一樣,都將通過云服務的形式對外賦能 。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號