IBM新概念芯片可將AI訓練速度提高30000倍
IBM 的幾位研究人員近日公佈了一份論文,論文闡述了一種所謂的電阻式處理單元(Resistive Processing Unit,RPU)的新型芯片概念,據稱與傳統 CPU 相比,這種芯片可以將深度神經網絡的訓練速度提高至原來的 30000 倍。
深度神經網絡(DNN)是一種有多隱層的人工神經網絡,這種神經網絡即可進行有監督訓練,也可進行無監督訓練,結果出來的就是能夠自行 “學習” 的機器學習(或者叫人工智能),也即所謂的深度學習。
前不久 Google(Alphabet) DeepMind 在人機大戰中擊敗李世石的 AI 圍棋程序 AlphaGo 就採用了類似算法。AlphaGo 由一個搜索樹算法和兩個有數百萬類神經元連接的多層深度神經網絡組成。其中一個網絡叫做 “策略網絡”,用於計算走哪一步的勝率最高,另一個網絡叫做 “價值網絡”,用於告訴 AlphaGo 怎麼移動對白子和黑子都更好,這樣就可以降低可能性的深度。
由於前景看好,許多機器學習研究人員都已經把焦點集中到深度神經網絡上面。但是,為了達到一定程度的智能,這些網絡需要非常多的計算芯片,比如 AlphaGo 使用的計算芯片數量就達到了幾千個。所以這是一項很耗計算資源、同時也很燒錢的任務。不過現在 IBM 的研究人員提出了一種新的芯片概念,其強大的計算能力可以一個就頂傳統芯片的幾千,而如果將成千上萬個這種芯片組合起來的話,未來 AI 的能力也許就會出現更多的突破。
這種名為 RPU 的芯片主要利用了深度學習等算法的兩個特點:本地性以及並行性。為此 ROU 藉助了下一代非易失性內存(NVM)技術的概念,把算法用到的權重值存儲在本地,從而把訓練過程中的數據移動最小化。研究人員稱,如果把這種 RPU 大規模應用到有 10 億多個權重的深度神經網絡,則訓練速度最高可以加速 30000 倍,也就是説平時需要幾千台機器訓練幾天才能出的結果用這種芯片幾個小時就可以搞定,而且能效還要低得多。
當然,論文只是提出了一種概念,這種芯片目前還處在研究階段,同時鑑於普通非易失性內存尚未進入主流市場,所以這樣的芯片上市估計還需要幾年的時間。不過如果這種芯片的確有那麼大的計算和能效優勢的話,相信 Google、Facebook 等從事 AI 研究和應用的巨頭一定會關注的,而 IBM 本身也是 AI、大數據的積极參與者之一,東西要是做出來市場是應該不用發愁的。
本文參考了多個信息來源:tomshardware.com,如若轉載,請註明出處:http://36kr.com/p/5045188.html
“看完這篇還不夠?如果你也在創業,並且希望自己的項目被報道,請戳這裏告訴我們!”
資料來源:36Kr