Google推出Move Mirror趣味AI網站,原理秘密和AIY相似!
從AlphaGo到猜畫小歌,Google一再向我們展示著人工智能的神通廣大,前段時間Google又推出一個新的AI實驗網站 Move Mirror 。
Move Mirror是一個人工智能實驗,通過移動讓你以一種有趣的新方式來探索圖像,當你在攝像頭前移動時,Move Mirror會通過你的實時動作判定你的人體姿勢,與數百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。
大概的運作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關節對應位置,分析后從有80000張素材的數據圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結果會即時比對隨時變更。
這這要歸功于TensorFlow.js,這是一個允許你在瀏覽器中運行機器學習項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網絡攝像頭的PC或手機的人都可以在Web瀏覽器中體驗和使用這項技術。關于隱私,當PoseNet由tensorflow.js驅動時,這就意味著姿態估計直接發生在瀏覽器中,你的圖像不會被儲存或發送到服務器,所有的圖像識別都在本地進行。所以你可以放心去做一些看著很搞笑或有點蠢的動作。
Google的TensorFlow圖像識別系統是目前最準確的圖像分類軟件。AIY Vision Kit 是AIY Projects的第二個產品。谷歌AIY Vision Kit(視覺套件)可以處理圖像識別和計算機視覺, 支持離線識別上千種常見物體(動物、植物)以及人臉、面部表情等。AIY Vision Kit包括紙板外殼、按鈕、揚聲器、以及Raspberry Pi Zero WH,Raspberry Pi 相機,SD卡等等。這款酷炫的盒子套件的計算機視覺功能均由附帶的Vision Bonnet板控制。
VisionBonnet板是該項目的核心,采用Intel Movidius MA2450芯片。 這種低功率視覺處理單元能夠運行神經網絡模型來識別物體。附帶的軟件運行三個基于TensorFlow的神經網絡。 其中一個基于谷歌的MobileNets平臺,能夠識別超過1,000個日常物品。 第二個可以在圖像中發現面部和表情。 最后一個是專門用于識別貓,狗和人的神經網絡。 Google還為AIY Vision創建了一個工具,允許您使用TensorFlow訓練新模型。 該套件支持Python API以進行基本更改,例如更改按鈕LED的顏色,調整揚聲器音量等。
上段說到PoseNet這是一個由劍橋大學開發的姿態估計開源工具,允許任何Web開發人員完全在瀏覽器中進行基于身體的交互,不需要特殊的相機或C++/Python技能,這是非常先進的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數據中提供高度準確的姿勢數據。PoseNet可以通過簡單易獲取的Web API降低了姿態估計的入門門檻。
Move Mirror是一個人工智能實驗,通過移動讓你以一種有趣的新方式來探索圖像,當你在攝像頭前移動時,Move Mirror會通過你的實時動作判定你的人體姿勢,與數百張在世界各地做類似姿勢的人的圖像相匹配,篩選出與你的姿勢最相近的圖像。你甚至可以捕獲做一個GIF圖,與你的朋友分享它。
大概的運作原理是:它會利用PoseNet來鏡像圖像中人體姿勢的關節對應位置,分析后從有80000張素材的數據圖庫中對比出與你姿勢最接近的圖像,而這個過程僅僅需要15ms。并且搜索結果會即時比對隨時變更。
這這要歸功于TensorFlow.js,這是一個允許你在瀏覽器中運行機器學習項目的Javascript庫。通過將PoseNet移植到TensorFlow.js,任何擁有配備好網絡攝像頭的PC或手機的人都可以在Web瀏覽器中體驗和使用這項技術。關于隱私,當PoseNet由tensorflow.js驅動時,這就意味著姿態估計直接發生在瀏覽器中,你的圖像不會被儲存或發送到服務器,所有的圖像識別都在本地進行。所以你可以放心去做一些看著很搞笑或有點蠢的動作。
Google的TensorFlow圖像識別系統是目前最準確的圖像分類軟件。AIY Vision Kit 是AIY Projects的第二個產品。谷歌AIY Vision Kit(視覺套件)可以處理圖像識別和計算機視覺, 支持離線識別上千種常見物體(動物、植物)以及人臉、面部表情等。AIY Vision Kit包括紙板外殼、按鈕、揚聲器、以及Raspberry Pi Zero WH,Raspberry Pi 相機,SD卡等等。這款酷炫的盒子套件的計算機視覺功能均由附帶的Vision Bonnet板控制。
VisionBonnet板是該項目的核心,采用Intel Movidius MA2450芯片。 這種低功率視覺處理單元能夠運行神經網絡模型來識別物體。附帶的軟件運行三個基于TensorFlow的神經網絡。 其中一個基于谷歌的MobileNets平臺,能夠識別超過1,000個日常物品。 第二個可以在圖像中發現面部和表情。 最后一個是專門用于識別貓,狗和人的神經網絡。 Google還為AIY Vision創建了一個工具,允許您使用TensorFlow訓練新模型。 該套件支持Python API以進行基本更改,例如更改按鈕LED的顏色,調整揚聲器音量等。
上段說到PoseNet這是一個由劍橋大學開發的姿態估計開源工具,允許任何Web開發人員完全在瀏覽器中進行基于身體的交互,不需要特殊的相機或C++/Python技能,這是非常先進的姿勢估計模型,即使是一些模糊,低分辨率,黑白的圖片,也可以從圖像數據中提供高度準確的姿勢數據。PoseNet可以通過簡單易獲取的Web API降低了姿態估計的入門門檻。