據 tom'sHardware 報道,在 I / O 會議上,谷歌發布了 Google Cloud 最新機器學習集群的預覽版,該集群不僅旨在實現 9 exaflops 的峰值性能,而且使用 90% 的無碳能源來實現。它將成為世界上最大的公開機器學習中心。
新集群的核心是 TPU V4 Pod。這些張量處理單元是去年在 Google I / O 上宣布的,來自 Meta、LG 和 Salesforce 等公司的 AI 團隊已經可以使用這些 pod。V4 TPU 允許研究人員使用他們選擇的框架,無論是 Tensorflow、JAX 還是 PyTorch,并且已經使 Google Research 在語言理解、計算機視覺和語音識別等領域取得了突破。
基于谷歌俄克拉荷馬州的數據中心,集群的潛在工作負載預計將相似,通過自然語言處理、計算機視覺算法和推薦系統領域的數據進行咀嚼。
對集群的訪問以切片的形式提供,從四個芯片(一個 TPU VM)一直到數千個。具有至少 64 個芯片的切片利用三維環形鏈路,為集體通信操作提供更高的帶寬。V4 芯片還能夠訪問兩倍于上一代的內存 —— 從 16 增加到 32GiB—— 并且在訓練大型模型時將加速速度提高一倍。
谷歌研究和人工智能。高級副總裁 Jeff Dean 表示:“為了讓先進的 AI 硬件更易于使用,幾年前我們啟動了 TPU 研究云 (TRC) 計劃,該計劃為全球數千名 ML 愛好者免費提供了 TPU 訪問權限,他們發表了數百篇論文和開源 github 庫,主題從《用人工智能寫波斯詩歌》到《使用計算機視覺和行為遺傳學區分睡眠和運動引起的疲勞》。Cloud TPU v4 的發布對于 Google Research 和我們的 TRC 計劃來說都是一個重要的里程碑,我們很高興能與世界各地的機器學習開發人員長期合作,共同使用 AI。”
谷歌的可持續發展承諾意味著該公司自 2017 年以來一直在將其數據中心的能源使用與古老的能源采購相匹配,并計劃到 2030 年將其整個業務都用于可再生能源。V4 TPU 也比前幾代更節能,每瓦產生的 FLOPS 是 V3 芯片的三倍。
對 Cloud TPU v4 Pod 的訪問包括評估(按需)、搶占式和承諾使用折扣 (CUD) 選項,并提供給所有 Google AI Cloud 用戶。【責任編輯/江小白】
來源:IT之家
IT時代網(關注微信公眾號ITtime2000,定時推送,互動有福利驚喜)所有原創文章版權所有,未經授權,轉載必究。
創客100創投基金成立于2015年,直通硅谷,專注于TMT領域早期項目投資。LP均來自政府、互聯網IT、傳媒知名企業和個人。創客100創投基金對IT、通信、互聯網、IP等有著自己獨特眼光和豐富的資源。決策快、投資快是創客100基金最顯著的特點。
小何
小何
小何
小何