英特爾下一個時代的『CPU』,10倍以上性能提升,1000 倍能耗降低
芯片行業有一種説法:“算力可以換一切”。
也就是當芯片算力足夠大的時候,許多難題都能迎刃而解,這也解釋了摩爾定律如此受關注的原因。但隨着AI、大數據的發展,傳統的芯片越來越難以滿足新興應用的需求,業界需要全新類別的芯片。
量子計算、神經擬態計算(也稱類腦計算)是兩個重要的突破方向。相比量子計算,神經擬態計算的關注度略低一些,但神經擬態計算已經被英特爾證明在一些應用中,可以帶來至少10倍的性能提升,同時實現1000倍的能耗降低。
英特爾神經擬態計算實驗室總監Mike Davies在近日宣佈英特爾第二代神經擬態芯片Loihi2後與雷鋒網(公眾號:雷鋒網)的交流中説:“英特爾可能不是第一家將神經形態技術商業化的公司,因為英特爾的規模,我們正在尋找巨大的機會。所以,我們必須以十億美元的水平看待所有的商業機會。我們並不急於商業化,但當我們商業化的時候,希望這是一項通用技術,可以像CPU、GPU在多種應用中為廣大客户提供巨大價值。”
從某種意義上來説,無論是英特爾正在探索的量子計算還是神經擬態芯片,都有可能成為地位可以比肩現有CPU的“下一個時代的CPU”。
Mike説至少要在3年後才可能看到英特爾正式推出神經擬態的商業化產品,但Loihi已經取得的成果值得我們期待神經擬態芯片的時代。
神經擬態芯片與傳統芯片有何本質差別?
談論神經擬態芯片的優勢之前,先解釋一下神經擬態計算這種全新的計算方式。神經擬態計算受到生物學原理的啓發,基於對現代神經科學的理解,從晶體管到架構設計,算法以及軟件來模仿人腦的運算。
神經擬態計算與傳統芯片和傳統處理方式有很多不同,比如,人腦中沒有單獨的存儲器,沒有動態隨機存取存儲器,沒有哈希層級結構,沒有共享存儲器等等。“存儲”和“處理器”錯綜複雜地深繞在人腦裏,在人腦的結構中有“神經元”的存在。
系統編程層面也有很大的區別,傳統的CPU或GPU結構以順序操作或指令/程序來思考,在神經擬態芯片中,計算過程需要神經元單元的互動。神經擬態芯片處理答案的步驟也許不按照程序的執行步驟,更多的是根據動態的交換反應。
當然也有相似之處,在電腦中,以數字化核心相互交流基於事件的信息,叫做脈衝,這點和人腦傳遞信息的方式相似。
相比傳統計算與神經擬態計算原理的區別,更多人應該更加關心神經擬態計算表現在應用中的優勢。Mike説:“有一系列問題人腦可以很好地處理,所以我們可以期待神經擬態計算對於真實數據的處理速度或反應時延的性能效率提升,尤其是對於真實數據樣本的適應力或快速學習能力的提升。”
神經擬態芯片擅長處理哪些任務?
2017年時,英特爾就對外公佈了其第一代神經擬態芯片Loihi,隨後便開始與業界共同探索神經擬態計算的可能性和可以發揮優勢的場景,並建立了神經擬態研究社區(INRC),如今已經有將近150個成員機構。
INRC今年新增的成員包括福特(Ford)、佐治亞理工學院(Georgia Institute of Technology)、美國西南研究院(SwRI)、美國菲力爾公司(Teledyne FLIR)。
“我們調查了最近所有的結果,研究了IEEE文獻,在很多不同的領域都得出,Loihi的結果超過了使用最好的CPU和GPU算出的結果,其中很多出自感知領域。”Mike表示“特別是和新的事件相機傳感器(新型視覺傳感器)集成時,神經擬態芯片能夠以非常低的功率水平來執行手勢識別和其他視覺推理任務。”
比如氣味傳感器,與基於傳統深度學習的方法相比較,神經擬態計算可以有效地學習多達三千倍的數據。
在機器人學習方面,基於神經擬態計算也展現出在機器手臂系統變化中的魯棒性,在一些實時出現的偏差中,Loihi也可以識別到,然後可以迴歸預期軌道重新佈局電路。
“過去的幾個月中,神經擬態計算在量化優化領域取得了非常好的結果。”Mike興奮的表示。
相比而言,英特爾與德國鐵路公司的合作更能展現神經擬態計算未來的應用前景。Mike介紹,“使用Loihi解決鐵路調度問題,速度比德國鐵路公司運營的Dion's使用的先進商業雲計算處理器快一個數量級以上,這是1000倍的低能耗。這表明高階規劃決策優化問題可以在以前根本不可能實現的形式因素中得到支持。”
還有一個例子,一些早期的研究顯示,熱擴散方程(一個基本的物理行為屬性)已經在Loihi中建模,桑迪亞國家實驗室完成的這項研究極大地減少了科學計算存在功耗過大方面問題的可能性。
“我們對Loihi的結果非常滿意。但與此同時,我們發現了硬件的一些限制。”Mike同時指出。
邁向下一個CPU時代
更強大的硬件
“我們有了一個編程性極強的神經元,可配置性極強的神經元模型,但它是一個固定功能類型的神經元。”Mike進一步表示,“自然界沒有單一的神經元,實際上有1000種不同類型的神經元,它們在大腦中有許多不同類型的動態。我們想嘗試支持的應用確實需要更多的靈活性,以使芯片中的神經元更加多樣化。”
雷鋒網瞭解到,英特爾通過一個微碼指令集來解決靈活性的問題,這個微碼指令集定義了神經元模型,幾乎可以編程任意的模型,涵蓋了研究界試圖探索的不同類型的方法。
“我們還擴展了脈衝的概念,這將提升結果的精確度,還可以縮小網絡的大小,以支持特定的問題。”Mike介紹,“在功能上,我們在Loihi2上還加強了芯片的學習能力。”
這些研究層面和功能層面的進步需要更強大的硬件支撐。在電路層面,Loihi 2比Loihi 1快2到10倍,這取決於特定的瓶頸和你測量的特定參數。例如,基於模擬的結果顯示,在前饋神經網絡中,Loihi2比Loihi快10倍。
工作負荷層面,Loihi2的神經元的數量提升了8倍,同時將芯片的面積縮小了一半(芯片總內存大致相同),即基於核心大小為0.21 mm2的Loihi 2,最多支持 8192個神經元,對比核心尺寸為0.41 mm2的Loihi,最多支持1024個神經元。
Mike解釋,“第一代Loihi做了固定分配,芯片中的每個核心都支持1024個神經元。但我們發現,在許多應用中,神經元的數量是一個有限的因素,芯片中的其它內存資源卻沒有得到充分利用。因此,Loihi 2的架構允許資源在有限的程度上進行交換,同時不影響架構的格式和效率,從而當應用工作負載受限於神經元數量時(通常會發生),能夠提供更多的資源來擴展到更多的神經元。”
與此匹配,需要先進的半導體制造工藝。“神經擬態計算的架構相對於其他架構需要更大的資源密度,Intel 4製程能夠提供更大的晶體管密度,我們可以在同樣大小的芯片上放置更大的神經網絡。”Mike還説,
“與以往的製程技術相比,Intel 4製程節點採用的極紫外光刻(EUV)技術簡化了佈局設計規則,使Loihi 2的快速開發成為可能。”
採用預生產版本的Intel 4製程其實還有英特爾展示其先進製程領導力的作用。需要指出的是,神經擬態架構是一個非常同質的架構,這對於仍處於產量優化過程中的早期工藝來説有很大優勢,因為它可以容忍大量的缺陷。
“神經擬態架構比其他架構更能夠從Intel4預生產過程中受益。”Mike表示。
不過,要解決更多實際問題還需要用Loihi2構建系統。為此,Loihi2的擴展能力也進行了提升,有了4倍速度的接口,還新增了兩個接口,可以在3個維度上進行擴展。
同時,Loihi2對芯片間的連接進行了壓縮,讓許多工作負載的擴展提供了10倍以上的帶寬,在減少擁堵和該架構擴展到更大網絡的能力方面,綜合提高了60倍以上。
總體而言,Loihi2的諸多改進,是為了減少支持相同程度能力所需的網絡規模,從而獲得更快的處理速度和更低的功耗。
軟件是神經擬態芯片大規模商用的關鍵
“Loihi 2與第一代一樣,屬於通用的神經擬態架構。展望未來,我們希望能構建一種新的可編程處理器架構,類似CPU或GPU,不針對特定的應用,適合用於填充組合技術。”Mike展望。
縱觀成功的CPU和GPU,都有非常易於使用軟件及軟件生態。顯然,神經擬態計算芯片想要成為像CPU一樣的通用芯片,軟件非常關鍵。
Mike也説,“過去三年使用Loihi的過程,我們吸取到一個重要經驗,軟件對神經擬態領域進展的限制和硬件一樣關鍵。”
此前,想要使用神經擬態芯片,都需要從頭開始開發軟件,這就像每個人都在重新創造世界。借鑑深度學習領域成功的TensorFlow和PyTorch,加上在神經擬態領域的經驗和需求分析,英特爾專為神經擬態計算打造了開源軟件框架Lava。
Mike強調,“我們不會把Lava作為英特爾的一個成品發佈給全世界使用,但這確實是與外界合作的起點。我們現在已經在GitHub上發佈了這個軟件框架,它借鑑了英特爾在這個領域觀察到的東西,也借鑑了英特爾第一代軟件開發獲得的經驗,也就是稱之為NX軟件開發工具包的NX SDK。”
開源框架Lava有一個重要特性,無論是將應用程序的成分映射到傳統的CPU或GPU上,還是將其分解成神經過程然後運行在神經擬態芯片上都可以。
“在使用Loihi 2研究芯片時,仍然需要通過英特爾相關法律程序的批准,這對很多想要參與這項研究的人來説是一個障礙。”Mike表示,“我們將為Lava提供一個開源許可證,這意味着開發人員可以自由進入並將這個框架移植到其他神經擬態芯片上。這是關鍵的一步,能夠擴大開源社區,並將所有這些探索神經擬態研究的不同方向的努力和付出彙集在一起,至少在軟件層面,可以更快速地實現商用落地。”
雷鋒網瞭解到,Lava使用的是Python語言,這在一定程度減輕了採用Lava的難度。
“我想説的是,構建算法的方式,對於巨大的芯片來説是比學習編程語言而言更困難的障礙。”Mike對雷鋒網表示,“可以嘗試輕鬆過渡到使用神經形態芯片,但我們認為最大的挑戰還是當前編程所需要使用的特定語言。在未來,我們或其他為Lava做出貢獻的人可能會引入新的語言或特定領域的語言,因為很明顯它可以提高生產力。”
寫在最後
對於英特爾而言,全面的產品組合是其保持當下以及可見的未來競爭力的關鍵。而對神經擬態計算和量子計算的探索,則關乎長遠未來的技術領導力。正如Mike所説,神經擬態計算的大規模商用還有很長一段路要走,但英特爾一旦商用神經擬態計算芯片,瞄準的是十億美元的市場。
也就是説,英特爾研究神經擬態計算和量子計算,瞄準的是下一個CPU/GPU級別的產品。
Loihi已經取得的成果,以及如今宣佈的Loihi2,不僅能夠釋放出其在先進計算領域的進展,更能通過Intel4製程將其現在的競爭力和未來的競爭力很好地連接在一起,共同展示英特爾的未來。
但在先進計算的探索中,除了需要實力,也需要運氣。
相關文章:
採用Intel 4製程,Loihi 2神經擬態計算芯片神經元最多達100萬個
神經擬態計算的“一小步”, AI發展的“一大步”
英特爾1億個神經元的全球最強神經擬態系統,何時改變世界?
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:包永剛
也就是當芯片算力足夠大的時候,許多難題都能迎刃而解,這也解釋了摩爾定律如此受關注的原因。但隨着AI、大數據的發展,傳統的芯片越來越難以滿足新興應用的需求,業界需要全新類別的芯片。
量子計算、神經擬態計算(也稱類腦計算)是兩個重要的突破方向。相比量子計算,神經擬態計算的關注度略低一些,但神經擬態計算已經被英特爾證明在一些應用中,可以帶來至少10倍的性能提升,同時實現1000倍的能耗降低。
英特爾神經擬態計算實驗室總監Mike Davies在近日宣佈英特爾第二代神經擬態芯片Loihi2後與雷鋒網(公眾號:雷鋒網)的交流中説:“英特爾可能不是第一家將神經形態技術商業化的公司,因為英特爾的規模,我們正在尋找巨大的機會。所以,我們必須以十億美元的水平看待所有的商業機會。我們並不急於商業化,但當我們商業化的時候,希望這是一項通用技術,可以像CPU、GPU在多種應用中為廣大客户提供巨大價值。”
從某種意義上來説,無論是英特爾正在探索的量子計算還是神經擬態芯片,都有可能成為地位可以比肩現有CPU的“下一個時代的CPU”。
Mike説至少要在3年後才可能看到英特爾正式推出神經擬態的商業化產品,但Loihi已經取得的成果值得我們期待神經擬態芯片的時代。
神經擬態芯片與傳統芯片有何本質差別?
談論神經擬態芯片的優勢之前,先解釋一下神經擬態計算這種全新的計算方式。神經擬態計算受到生物學原理的啓發,基於對現代神經科學的理解,從晶體管到架構設計,算法以及軟件來模仿人腦的運算。
神經擬態計算與傳統芯片和傳統處理方式有很多不同,比如,人腦中沒有單獨的存儲器,沒有動態隨機存取存儲器,沒有哈希層級結構,沒有共享存儲器等等。“存儲”和“處理器”錯綜複雜地深繞在人腦裏,在人腦的結構中有“神經元”的存在。
系統編程層面也有很大的區別,傳統的CPU或GPU結構以順序操作或指令/程序來思考,在神經擬態芯片中,計算過程需要神經元單元的互動。神經擬態芯片處理答案的步驟也許不按照程序的執行步驟,更多的是根據動態的交換反應。
當然也有相似之處,在電腦中,以數字化核心相互交流基於事件的信息,叫做脈衝,這點和人腦傳遞信息的方式相似。
相比傳統計算與神經擬態計算原理的區別,更多人應該更加關心神經擬態計算表現在應用中的優勢。Mike説:“有一系列問題人腦可以很好地處理,所以我們可以期待神經擬態計算對於真實數據的處理速度或反應時延的性能效率提升,尤其是對於真實數據樣本的適應力或快速學習能力的提升。”
神經擬態芯片擅長處理哪些任務?
2017年時,英特爾就對外公佈了其第一代神經擬態芯片Loihi,隨後便開始與業界共同探索神經擬態計算的可能性和可以發揮優勢的場景,並建立了神經擬態研究社區(INRC),如今已經有將近150個成員機構。
INRC今年新增的成員包括福特(Ford)、佐治亞理工學院(Georgia Institute of Technology)、美國西南研究院(SwRI)、美國菲力爾公司(Teledyne FLIR)。
“我們調查了最近所有的結果,研究了IEEE文獻,在很多不同的領域都得出,Loihi的結果超過了使用最好的CPU和GPU算出的結果,其中很多出自感知領域。”Mike表示“特別是和新的事件相機傳感器(新型視覺傳感器)集成時,神經擬態芯片能夠以非常低的功率水平來執行手勢識別和其他視覺推理任務。”
比如氣味傳感器,與基於傳統深度學習的方法相比較,神經擬態計算可以有效地學習多達三千倍的數據。
在機器人學習方面,基於神經擬態計算也展現出在機器手臂系統變化中的魯棒性,在一些實時出現的偏差中,Loihi也可以識別到,然後可以迴歸預期軌道重新佈局電路。
“過去的幾個月中,神經擬態計算在量化優化領域取得了非常好的結果。”Mike興奮的表示。
相比而言,英特爾與德國鐵路公司的合作更能展現神經擬態計算未來的應用前景。Mike介紹,“使用Loihi解決鐵路調度問題,速度比德國鐵路公司運營的Dion's使用的先進商業雲計算處理器快一個數量級以上,這是1000倍的低能耗。這表明高階規劃決策優化問題可以在以前根本不可能實現的形式因素中得到支持。”
還有一個例子,一些早期的研究顯示,熱擴散方程(一個基本的物理行為屬性)已經在Loihi中建模,桑迪亞國家實驗室完成的這項研究極大地減少了科學計算存在功耗過大方面問題的可能性。
“我們對Loihi的結果非常滿意。但與此同時,我們發現了硬件的一些限制。”Mike同時指出。
邁向下一個CPU時代
更強大的硬件
“我們有了一個編程性極強的神經元,可配置性極強的神經元模型,但它是一個固定功能類型的神經元。”Mike進一步表示,“自然界沒有單一的神經元,實際上有1000種不同類型的神經元,它們在大腦中有許多不同類型的動態。我們想嘗試支持的應用確實需要更多的靈活性,以使芯片中的神經元更加多樣化。”
雷鋒網瞭解到,英特爾通過一個微碼指令集來解決靈活性的問題,這個微碼指令集定義了神經元模型,幾乎可以編程任意的模型,涵蓋了研究界試圖探索的不同類型的方法。
“我們還擴展了脈衝的概念,這將提升結果的精確度,還可以縮小網絡的大小,以支持特定的問題。”Mike介紹,“在功能上,我們在Loihi2上還加強了芯片的學習能力。”
這些研究層面和功能層面的進步需要更強大的硬件支撐。在電路層面,Loihi 2比Loihi 1快2到10倍,這取決於特定的瓶頸和你測量的特定參數。例如,基於模擬的結果顯示,在前饋神經網絡中,Loihi2比Loihi快10倍。
工作負荷層面,Loihi2的神經元的數量提升了8倍,同時將芯片的面積縮小了一半(芯片總內存大致相同),即基於核心大小為0.21 mm2的Loihi 2,最多支持 8192個神經元,對比核心尺寸為0.41 mm2的Loihi,最多支持1024個神經元。
Mike解釋,“第一代Loihi做了固定分配,芯片中的每個核心都支持1024個神經元。但我們發現,在許多應用中,神經元的數量是一個有限的因素,芯片中的其它內存資源卻沒有得到充分利用。因此,Loihi 2的架構允許資源在有限的程度上進行交換,同時不影響架構的格式和效率,從而當應用工作負載受限於神經元數量時(通常會發生),能夠提供更多的資源來擴展到更多的神經元。”
與此匹配,需要先進的半導體制造工藝。“神經擬態計算的架構相對於其他架構需要更大的資源密度,Intel 4製程能夠提供更大的晶體管密度,我們可以在同樣大小的芯片上放置更大的神經網絡。”Mike還説,
“與以往的製程技術相比,Intel 4製程節點採用的極紫外光刻(EUV)技術簡化了佈局設計規則,使Loihi 2的快速開發成為可能。”
採用預生產版本的Intel 4製程其實還有英特爾展示其先進製程領導力的作用。需要指出的是,神經擬態架構是一個非常同質的架構,這對於仍處於產量優化過程中的早期工藝來説有很大優勢,因為它可以容忍大量的缺陷。
“神經擬態架構比其他架構更能夠從Intel4預生產過程中受益。”Mike表示。
不過,要解決更多實際問題還需要用Loihi2構建系統。為此,Loihi2的擴展能力也進行了提升,有了4倍速度的接口,還新增了兩個接口,可以在3個維度上進行擴展。
同時,Loihi2對芯片間的連接進行了壓縮,讓許多工作負載的擴展提供了10倍以上的帶寬,在減少擁堵和該架構擴展到更大網絡的能力方面,綜合提高了60倍以上。
總體而言,Loihi2的諸多改進,是為了減少支持相同程度能力所需的網絡規模,從而獲得更快的處理速度和更低的功耗。
軟件是神經擬態芯片大規模商用的關鍵
“Loihi 2與第一代一樣,屬於通用的神經擬態架構。展望未來,我們希望能構建一種新的可編程處理器架構,類似CPU或GPU,不針對特定的應用,適合用於填充組合技術。”Mike展望。
縱觀成功的CPU和GPU,都有非常易於使用軟件及軟件生態。顯然,神經擬態計算芯片想要成為像CPU一樣的通用芯片,軟件非常關鍵。
Mike也説,“過去三年使用Loihi的過程,我們吸取到一個重要經驗,軟件對神經擬態領域進展的限制和硬件一樣關鍵。”
此前,想要使用神經擬態芯片,都需要從頭開始開發軟件,這就像每個人都在重新創造世界。借鑑深度學習領域成功的TensorFlow和PyTorch,加上在神經擬態領域的經驗和需求分析,英特爾專為神經擬態計算打造了開源軟件框架Lava。
Mike強調,“我們不會把Lava作為英特爾的一個成品發佈給全世界使用,但這確實是與外界合作的起點。我們現在已經在GitHub上發佈了這個軟件框架,它借鑑了英特爾在這個領域觀察到的東西,也借鑑了英特爾第一代軟件開發獲得的經驗,也就是稱之為NX軟件開發工具包的NX SDK。”
開源框架Lava有一個重要特性,無論是將應用程序的成分映射到傳統的CPU或GPU上,還是將其分解成神經過程然後運行在神經擬態芯片上都可以。
“在使用Loihi 2研究芯片時,仍然需要通過英特爾相關法律程序的批准,這對很多想要參與這項研究的人來説是一個障礙。”Mike表示,“我們將為Lava提供一個開源許可證,這意味着開發人員可以自由進入並將這個框架移植到其他神經擬態芯片上。這是關鍵的一步,能夠擴大開源社區,並將所有這些探索神經擬態研究的不同方向的努力和付出彙集在一起,至少在軟件層面,可以更快速地實現商用落地。”
雷鋒網瞭解到,Lava使用的是Python語言,這在一定程度減輕了採用Lava的難度。
“我想説的是,構建算法的方式,對於巨大的芯片來説是比學習編程語言而言更困難的障礙。”Mike對雷鋒網表示,“可以嘗試輕鬆過渡到使用神經形態芯片,但我們認為最大的挑戰還是當前編程所需要使用的特定語言。在未來,我們或其他為Lava做出貢獻的人可能會引入新的語言或特定領域的語言,因為很明顯它可以提高生產力。”
寫在最後
對於英特爾而言,全面的產品組合是其保持當下以及可見的未來競爭力的關鍵。而對神經擬態計算和量子計算的探索,則關乎長遠未來的技術領導力。正如Mike所説,神經擬態計算的大規模商用還有很長一段路要走,但英特爾一旦商用神經擬態計算芯片,瞄準的是十億美元的市場。
也就是説,英特爾研究神經擬態計算和量子計算,瞄準的是下一個CPU/GPU級別的產品。
Loihi已經取得的成果,以及如今宣佈的Loihi2,不僅能夠釋放出其在先進計算領域的進展,更能通過Intel4製程將其現在的競爭力和未來的競爭力很好地連接在一起,共同展示英特爾的未來。
但在先進計算的探索中,除了需要實力,也需要運氣。
相關文章:
採用Intel 4製程,Loihi 2神經擬態計算芯片神經元最多達100萬個
神經擬態計算的“一小步”, AI發展的“一大步”
英特爾1億個神經元的全球最強神經擬態系統,何時改變世界?
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:包永剛