Google再度發力邊緣人工智慧,今年期待發佈更多AI新產品
邊緣計算實現智能計算的邊緣化,比較依賴於集成在邊緣設備上的AI晶片。
邊緣計算並不是一個新的概念,早在2003年IBM的內部專案中就已出現,本質是一種去中心化的分佈式計算模型。邊緣計算在本地網路中進行計算,採集到的數據不用上傳到雲端,或者在本地處理加工過濾後只將少量數據傳至雲端,大大減少了網路傳輸佔用的處理時間,也降低了帶寬成本,對於電能有限的邊緣設備來說也能更加節能,從而延長設備的使用壽命。在未來五年內,專用AI晶片以及更強大的處理能力、存儲和其他先進功能將被添加到更廣泛的邊緣設備中。
Edge TPU:Google 專門為在邊緣進行推理而打造的 ASIC。
在邊緣運行的 AI
如今,從消費者應用到企業應用,到處可見 AI 的身影。隨著聯網設備數量的爆發式增長,加上對隱私/機密、低延遲時間的需求以及帶寬限制等因素,雲端訓練的 AI 模型需要在邊緣運行的情況日趨普遍。Edge TPU 是 Google 專門為在邊緣運行 AI 而打造的 ASIC,它體型小、能耗低,但性能出色,可以在邊緣部署高精度 AI。
端到端 AI 基礎架構
Edge TPU 是對 Cloud TPU 和 Google Cloud 服務的補充,提供端到端、雲端到邊緣、“硬體 + 軟體”的基礎架構,可協助客戶部署基於 AI 的解決方案。
體型小、能耗低,但性能出色
由於性能出色、體型纖小、能耗極低,Edge TPU 可實現高品質 AI 在邊緣的廣泛部署。
AI 硬體、軟體和演算法的協同設計
Edge TPU 不僅僅是一種硬體解決方案,它將定制硬體、開源軟體和最先進的 AI 演算法結合在一起,為邊緣提供優質、易部署的 AI 解決方案。
眾多應用場景
Edge TPU 可用於越來越多的工業使用場景,如預測性維護、異常檢測、機器視覺、機器人學、語音識別等等。 它可以應用於製造、本地部署、醫療保健、零售、智能空間、交通運輸等各個領域。
開放式端到端基礎架構,方便您部署 AI 解決方案
借助 Edge TPU,您可以使用來自 Coral 的各種原型設計和生產產品,在邊緣部署各種優質的機器學習推斷功能。
用於在邊緣部署機器學習的 Coral 平臺與 Google 的 Cloud TPU 和 Cloud IoT 相輔相成,共同提供一個端到端(雲端到邊緣、硬體 + 軟體)基礎架構,從而協助部署客戶基於 AI 的解決方案。除了開源 TensorFlow Lite 編程環境以外,Coral 平臺還提供一套完整的開發者工具包,這樣您就可以針對 Edge TPU 編譯自己的模型或者保留幾個 Google AI,將 Google 在 AI 和硬體方面的專業知識融於一體。
Edge TPU 是對 CPU、GPU、FPGA 以及其他在邊緣運行 AI 的 ASIC 解決方案的補充。
單個Edge TPU能夠每秒執行4萬億次操作(萬億次操作)(TOPS),每個TOPS使用0.5瓦(每瓦2 TOPS)。如何將其轉換為應用程式的性能取決於多種因素。每種神經網路模型都有不同的要求,如果使用USB Accelerator設備,則總性能還取決於主機CPU,USB速度和其他系統資源。
話雖如此,下麵的表1比較了在Edge TPU上與幾種流行模型執行一次推斷所花費的時間。
這代表了與Edge TPU相容的模型架構的一小部分選擇(它們都使用ImageNet數據集(具有1,000個類)進行了訓練)。如果要測試自己的模型,請閱讀模型架構要求。
注意:這些數字僅測量執行模型所需的時間。它不包括處理輸入數據的時間(例如按比例縮小圖像以適合輸入張量的時間),時間可能因系統和應用程式而異。這些測試也使用C ++基準測試執行,而我們的公共Python基準腳本可能會由於Python的相關損耗而變慢。
1 Desktop CPU: 64-bit Intel(R) Xeon(R) Gold 6154 CPU @ 3.00GHz
2 Embedded CPU: Quad-core Cortex-A53 @ 1.5GHz
3 Dev Board: Quad-core Cortex-A53 @ 1.5GHz + Edge TPU
越來越多的行業開始意識到本地AI的價值,其中本地推理的速度可以節省大量帶寬和雲計算成本,而將數據保持在本地可以保護用戶的隱私。
Google於2019年3月份推出了基於Edge TPU晶片的開發板等一系列硬體,以及本地化AI平臺Coral。這是一個硬體組件和軟體工具平臺,可輕鬆對本地AI產品進行原型設計和擴展。Coral產品組合包括Coral Dev Board,USB Accelerator和PCIe Accelerators,這些產品現已在36個國家/地區提供。
自發布以來,Google已經對基於Coral的各種應用感到高興,這些應用涵蓋了從醫療保健,農業到智慧城市的眾多行業。然而就在在今年年初(1月2日),Google又出其不意在其開發者博客上發佈稱,將在2020年進一步對Coral平臺擴大可拓展性,新增更多功能。
同時2020年上半年推出基於Edge TPU晶片的Coral 加速模組(Coral Accelerator Module)和Coral迷你開發板(Coral Dev Board Mini)。Coral Accelerator Module是一種易於集成的多晶片封裝,封裝了Edge TPU ASIC。該模組同時提供PCIe和USB介面,可以輕鬆集成到定制PCB設計中。Coral Dev Board Mini可替代Coral Dev Board,它能提供更小的外形尺寸,更低的功耗和更低的成本,在720P視頻編碼/解碼和電腦視覺用例方面表現更加出色。
Google Coral 系列硬件通過代理商 Gravitylink線上商城,現已在近40個國家/地區發售。Gravitylink 擁有覆蓋亞太、北美、歐洲等地區的銷售網絡,並推出全球首個基於Google Coral 硬件打造的AI 模型交流市場「Model Play」。
如果您對Google Coral Edge TPU系列硬體產品感興趣,歡迎訪問Google Coral代理商Gravitylink在線商城(https://store.gravitylink.com/global)進行訂購。企業以及感興趣的用戶可直接登陸線上商城進行咨詢(也可通過郵件咨詢)([email protected] / [email protected]),批量購買可享折扣,並贈送遷移學習平臺及各類模型資源供使用。
邊緣計算並不是一個新的概念,早在2003年IBM的內部專案中就已出現,本質是一種去中心化的分佈式計算模型。邊緣計算在本地網路中進行計算,採集到的數據不用上傳到雲端,或者在本地處理加工過濾後只將少量數據傳至雲端,大大減少了網路傳輸佔用的處理時間,也降低了帶寬成本,對於電能有限的邊緣設備來說也能更加節能,從而延長設備的使用壽命。在未來五年內,專用AI晶片以及更強大的處理能力、存儲和其他先進功能將被添加到更廣泛的邊緣設備中。
Edge TPU:Google 專門為在邊緣進行推理而打造的 ASIC。
在邊緣運行的 AI
如今,從消費者應用到企業應用,到處可見 AI 的身影。隨著聯網設備數量的爆發式增長,加上對隱私/機密、低延遲時間的需求以及帶寬限制等因素,雲端訓練的 AI 模型需要在邊緣運行的情況日趨普遍。Edge TPU 是 Google 專門為在邊緣運行 AI 而打造的 ASIC,它體型小、能耗低,但性能出色,可以在邊緣部署高精度 AI。
端到端 AI 基礎架構
Edge TPU 是對 Cloud TPU 和 Google Cloud 服務的補充,提供端到端、雲端到邊緣、“硬體 + 軟體”的基礎架構,可協助客戶部署基於 AI 的解決方案。
體型小、能耗低,但性能出色
由於性能出色、體型纖小、能耗極低,Edge TPU 可實現高品質 AI 在邊緣的廣泛部署。
AI 硬體、軟體和演算法的協同設計
Edge TPU 不僅僅是一種硬體解決方案,它將定制硬體、開源軟體和最先進的 AI 演算法結合在一起,為邊緣提供優質、易部署的 AI 解決方案。
眾多應用場景
Edge TPU 可用於越來越多的工業使用場景,如預測性維護、異常檢測、機器視覺、機器人學、語音識別等等。 它可以應用於製造、本地部署、醫療保健、零售、智能空間、交通運輸等各個領域。
開放式端到端基礎架構,方便您部署 AI 解決方案
借助 Edge TPU,您可以使用來自 Coral 的各種原型設計和生產產品,在邊緣部署各種優質的機器學習推斷功能。
用於在邊緣部署機器學習的 Coral 平臺與 Google 的 Cloud TPU 和 Cloud IoT 相輔相成,共同提供一個端到端(雲端到邊緣、硬體 + 軟體)基礎架構,從而協助部署客戶基於 AI 的解決方案。除了開源 TensorFlow Lite 編程環境以外,Coral 平臺還提供一套完整的開發者工具包,這樣您就可以針對 Edge TPU 編譯自己的模型或者保留幾個 Google AI,將 Google 在 AI 和硬體方面的專業知識融於一體。
Edge TPU 是對 CPU、GPU、FPGA 以及其他在邊緣運行 AI 的 ASIC 解決方案的補充。
單個Edge TPU能夠每秒執行4萬億次操作(萬億次操作)(TOPS),每個TOPS使用0.5瓦(每瓦2 TOPS)。如何將其轉換為應用程式的性能取決於多種因素。每種神經網路模型都有不同的要求,如果使用USB Accelerator設備,則總性能還取決於主機CPU,USB速度和其他系統資源。
話雖如此,下麵的表1比較了在Edge TPU上與幾種流行模型執行一次推斷所花費的時間。
這代表了與Edge TPU相容的模型架構的一小部分選擇(它們都使用ImageNet數據集(具有1,000個類)進行了訓練)。如果要測試自己的模型,請閱讀模型架構要求。
注意:這些數字僅測量執行模型所需的時間。它不包括處理輸入數據的時間(例如按比例縮小圖像以適合輸入張量的時間),時間可能因系統和應用程式而異。這些測試也使用C ++基準測試執行,而我們的公共Python基準腳本可能會由於Python的相關損耗而變慢。
1 Desktop CPU: 64-bit Intel(R) Xeon(R) Gold 6154 CPU @ 3.00GHz
2 Embedded CPU: Quad-core Cortex-A53 @ 1.5GHz
3 Dev Board: Quad-core Cortex-A53 @ 1.5GHz + Edge TPU
越來越多的行業開始意識到本地AI的價值,其中本地推理的速度可以節省大量帶寬和雲計算成本,而將數據保持在本地可以保護用戶的隱私。
Google於2019年3月份推出了基於Edge TPU晶片的開發板等一系列硬體,以及本地化AI平臺Coral。這是一個硬體組件和軟體工具平臺,可輕鬆對本地AI產品進行原型設計和擴展。Coral產品組合包括Coral Dev Board,USB Accelerator和PCIe Accelerators,這些產品現已在36個國家/地區提供。
自發布以來,Google已經對基於Coral的各種應用感到高興,這些應用涵蓋了從醫療保健,農業到智慧城市的眾多行業。然而就在在今年年初(1月2日),Google又出其不意在其開發者博客上發佈稱,將在2020年進一步對Coral平臺擴大可拓展性,新增更多功能。
同時2020年上半年推出基於Edge TPU晶片的Coral 加速模組(Coral Accelerator Module)和Coral迷你開發板(Coral Dev Board Mini)。Coral Accelerator Module是一種易於集成的多晶片封裝,封裝了Edge TPU ASIC。該模組同時提供PCIe和USB介面,可以輕鬆集成到定制PCB設計中。Coral Dev Board Mini可替代Coral Dev Board,它能提供更小的外形尺寸,更低的功耗和更低的成本,在720P視頻編碼/解碼和電腦視覺用例方面表現更加出色。
Google Coral 系列硬件通過代理商 Gravitylink線上商城,現已在近40個國家/地區發售。Gravitylink 擁有覆蓋亞太、北美、歐洲等地區的銷售網絡,並推出全球首個基於Google Coral 硬件打造的AI 模型交流市場「Model Play」。
如果您對Google Coral Edge TPU系列硬體產品感興趣,歡迎訪問Google Coral代理商Gravitylink在線商城(https://store.gravitylink.com/global)進行訂購。企業以及感興趣的用戶可直接登陸線上商城進行咨詢(也可通過郵件咨詢)([email protected] / [email protected]),批量購買可享折扣,並贈送遷移學習平臺及各類模型資源供使用。