IBM 認為模擬芯片可為機器學習加速1000倍
人工智能或許能解決一些科學和行業最棘手的挑戰,但要實現人工智能,需要新一代的計算機系統。IBM在博客中的一篇文章中指出,通過使用基於相變存儲器(Phase-Change Memory,簡稱PCM)的模擬芯片,機器學習可以加速一千倍。
相變存儲器基於硫化物玻璃材料,這種材料在施加合適的電流時會將其相從晶態變為非晶態並可恢復。每相具有不同的電阻水平,在相位改變之前是穩定的。兩個電阻構成二進制的1或0。
PCM是非易失性的,訪問延遲與DRAM水平相當,他們都是存儲級內存的代表。英特爾與美光聯合開發的3D XPoint技術就基於PCM。
IBM在博客中透露,為了實現AI真正的潛力,在紐約州立大學和創始合作伙伴成員的支持下,IBM正在建立一個研究中心,以開發新一代AI硬件,並期待擴展其納米技術的聯合研究工作。
據雷鋒網了解,IBM Research AI硬件中心合作伙伴涵蓋半導體全產業鏈上的公司,包括IBM製造和研究領域的戰略合作伙伴三星,互聯解決方案公司Mellanox Technologies,提供仿真和原型設計解決方案軟件平台提供商Synopsys,半導體設備公司Applied Materials和Tokyo Electron Limited(TEL)。
還與紐約州奧爾巴尼的紐約州立大學理工學院主辦方合作,進行擴展的基礎設施支持和學術合作,並與鄰近的倫斯勒理工學院(RPI)計算創新中心(CCI)合作,開展人工智能和計算方面的學術合作。
新的處理硬件
IBM研究院的半導體和人工智能硬件副總裁Mukesh Khare表示,目前的機器學習限制可以通過使用新的處理硬件來打破,例如:
圖1:IBM Research AI硬件中心制定的一個路線圖,在未來十年內將AI計算性能效率提高1000倍,並提供數字AI核心和模擬AI核心管道。
Mukesh Khare提到將深度神經網絡(DNN)映射到模擬交叉點陣列(模擬AI核心)。它們在陣列交叉點處具有非易失性存儲器材料以存儲權重。
DNN計算中的數值被加權以提高訓練過程中決策的準確性。
這些可以直接用交叉點PCM陣列實現,無需主機服務器CPU干預,從而提供內存計算,無需數據搬移。與英特爾XPoint SSD或DIMM等數字陣列形成對比,這是一個模擬陣列。
PCM沿着非晶態和晶態之間的8級梯度記錄突觸權重。每個步驟的電導或電阻可以用電脈衝改變。這8級在DNN計算中提供8位精度。
圖2:非易失性存儲器的交叉開關陣列可以通過在數據位置處執行計算來加速完全連接的神經網絡的訓練。
模擬存儲器芯片內部的計算
在IBM的研究報告中指出:
“模擬非易失性存儲器(NVM)可以有效地加速”反向傳播(Backpropagation)“算法,這是許多最新AI技術進步的核心。這些存儲器允許使用基礎物理學在這些算法中使用的“乘法-累加”運算在模擬域中,在權重數據的位置處並行化。
“與大規模電路相乘並將數字相加在一起不同,我們只需將一個小電流通過電阻器連接到一根導線上,然後將許多這樣的導線連接在一起,讓電流積聚起來。這讓我們可以同時執行許多計算,而不順序執行。也不是在數字存儲芯片和處理芯片之間的傳輸數字數據,我們可以在模擬存儲芯片內執行所有計算 。“
圖3:我們的模擬AI內核是性能效率內存計算方法的一部分,通過消除與內存之間的數據傳輸來突破所謂的馮·諾伊曼結構瓶頸,從而提高了性能。深度神經網絡被映射到模擬交叉點陣列,並且切換新的非易失性材料特性以在交叉點中存儲網絡參數。
雷鋒網編譯,via blocksandfiles、ibm blog 雷鋒網(公眾號:雷鋒網)
雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:包永剛
相變存儲器基於硫化物玻璃材料,這種材料在施加合適的電流時會將其相從晶態變為非晶態並可恢復。每相具有不同的電阻水平,在相位改變之前是穩定的。兩個電阻構成二進制的1或0。
PCM是非易失性的,訪問延遲與DRAM水平相當,他們都是存儲級內存的代表。英特爾與美光聯合開發的3D XPoint技術就基於PCM。
IBM在博客中透露,為了實現AI真正的潛力,在紐約州立大學和創始合作伙伴成員的支持下,IBM正在建立一個研究中心,以開發新一代AI硬件,並期待擴展其納米技術的聯合研究工作。
據雷鋒網了解,IBM Research AI硬件中心合作伙伴涵蓋半導體全產業鏈上的公司,包括IBM製造和研究領域的戰略合作伙伴三星,互聯解決方案公司Mellanox Technologies,提供仿真和原型設計解決方案軟件平台提供商Synopsys,半導體設備公司Applied Materials和Tokyo Electron Limited(TEL)。
還與紐約州奧爾巴尼的紐約州立大學理工學院主辦方合作,進行擴展的基礎設施支持和學術合作,並與鄰近的倫斯勒理工學院(RPI)計算創新中心(CCI)合作,開展人工智能和計算方面的學術合作。
新的處理硬件
IBM研究院的半導體和人工智能硬件副總裁Mukesh Khare表示,目前的機器學習限制可以通過使用新的處理硬件來打破,例如:
- 數字AI核心和近似計算
- 帶模擬內核的內存計算
- 採用優化材料的模擬核心
圖1:IBM Research AI硬件中心制定的一個路線圖,在未來十年內將AI計算性能效率提高1000倍,並提供數字AI核心和模擬AI核心管道。
Mukesh Khare提到將深度神經網絡(DNN)映射到模擬交叉點陣列(模擬AI核心)。它們在陣列交叉點處具有非易失性存儲器材料以存儲權重。
DNN計算中的數值被加權以提高訓練過程中決策的準確性。
這些可以直接用交叉點PCM陣列實現,無需主機服務器CPU干預,從而提供內存計算,無需數據搬移。與英特爾XPoint SSD或DIMM等數字陣列形成對比,這是一個模擬陣列。
PCM沿着非晶態和晶態之間的8級梯度記錄突觸權重。每個步驟的電導或電阻可以用電脈衝改變。這8級在DNN計算中提供8位精度。
圖2:非易失性存儲器的交叉開關陣列可以通過在數據位置處執行計算來加速完全連接的神經網絡的訓練。
模擬存儲器芯片內部的計算
在IBM的研究報告中指出:
“模擬非易失性存儲器(NVM)可以有效地加速”反向傳播(Backpropagation)“算法,這是許多最新AI技術進步的核心。這些存儲器允許使用基礎物理學在這些算法中使用的“乘法-累加”運算在模擬域中,在權重數據的位置處並行化。
“與大規模電路相乘並將數字相加在一起不同,我們只需將一個小電流通過電阻器連接到一根導線上,然後將許多這樣的導線連接在一起,讓電流積聚起來。這讓我們可以同時執行許多計算,而不順序執行。也不是在數字存儲芯片和處理芯片之間的傳輸數字數據,我們可以在模擬存儲芯片內執行所有計算 。“
圖3:我們的模擬AI內核是性能效率內存計算方法的一部分,通過消除與內存之間的數據傳輸來突破所謂的馮·諾伊曼結構瓶頸,從而提高了性能。深度神經網絡被映射到模擬交叉點陣列,並且切換新的非易失性材料特性以在交叉點中存儲網絡參數。
雷鋒網編譯,via blocksandfiles、ibm blog 雷鋒網(公眾號:雷鋒網)
雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:包永剛