性能太強大必須使用“液冷”,谷歌發(fā)布 TPU 3.0
5月9日消息,在谷歌 I/O 開發(fā)者大會上,谷歌宣布發(fā)布 TPU 3.0。
本文引用地址:http://cafeforensic.com/article/201805/379660.htm谷歌首先演示了谷歌一系列的機器學習成果,包括 Gmail 系統(tǒng)可以自動給用戶推薦可能要打的字,在谷歌照片中,系統(tǒng)會根據照片建議用戶對照片驚醒相應編輯,比如調高亮度、給黑白照片加色、將斜著拍攝的文件拉正等。谷歌表示,要想更好地實現這些功能,必須要有強大的計算能力的支持。于是便引出了 TPU 3.0。
谷歌表示,TPU 3.0 的性能比去年發(fā)布的 TPU2.0 要強大 8 倍左右,可提供超過 100 千兆次的機器學習硬件加速能力。 為此,谷歌不得不在數據中心中添加液態(tài)冷卻裝置,用于散熱。
據了解,谷歌在 2016 年首次宣布了 TPU 計劃。 TPU 被作為一種特定目的芯片而專為機器學習設計,其因幫助 AlphaGo 打敗李世石而名聲大噪,隨后,谷歌還將這一芯片用在了其服務的方方面面,比如搜索、翻譯、相冊等軟件背后的機器學習模型中。
去年 5 月,谷歌又宣布第二代的 TPU 系統(tǒng)已經全面投入使用,并且已經部署在了 Google Compute Engine 平臺上,據了解,TPU2.0 具有四個芯片,每秒可處理 180 萬億次浮點運算。同時,谷歌還表示找到了一種方法,使用新的計算機網絡將 64 個 TPU 組合到一起,升級為所謂的 TPU Pods,可提供大約 11500 萬億次浮點運算能力。
據了解,目前機器學習主要都運用 GPU 來做模型的訓練,但由于 GPU 并非專門為機器學習而設計,所以市面上已經有越來越多的企業(yè)開始研發(fā)機器學習專門的芯片產品,而谷歌的 TPU 便是其中的佼佼者,TPU 3.0 的發(fā)布,對 GPU 巨頭英偉達而言,或許是一件“狼來了”的故事。
另外,對于 TPU 3.0 谷歌在 I/O 開發(fā)者大會上并沒有更加詳細的介紹,不過,外界認為其應該與 TPU 2.0 一樣,都將通過云服務的形式對外賦能 。
評論