人工智慧的門檻這樣低?普通人都能在家DIY?
人工智慧(AI)會將我們變成超人,前提是它最終不會取代我們。 但我們對AI的真正含義是什么?我們可以用它做些什么呢? 在這篇文章中,我將介紹最先進的技術,以及如何使用便宜的Raspberry Pi計算機和谷歌的一些名為TensorFlow的免費軟件構建自己的“DIY”。
AI現在主要是聚焦模式識別 - 靜止和運動圖像,還有聲音(識別單詞和句子)和文本(本文用英文寫成)。一個很好的例子是上圖中的Raspberry Pi徽標。即使認為它有點模糊,我們看不到整個事物,大多數人會認識到圖片包含某種漿果。熟悉這種小型低成本計算機的人幾乎可以立即發現圖片中包含Raspberry Pi徽標 - 電路板背景可能有助于慢慢記憶。
當我們談論“智能”時,事實是這種模式識別非常愚蠢。智能(如果有的話)由人類提供,添加一些規則,告訴計算機在匹配模式時要注意哪些模式以及要做什么。所以讓我們嘗試一下小實驗 - 我們會將相機和揚聲器連接到我們的Raspberry Pi上,教它識別相機看到的物體,然后告訴我們它在看什么。這是一個非常緩慢而笨重的低技術版本的OrCam,這是一項新的發明,幫助失明和視力不佳的人獨立生活。
谷歌的TensorFlow是一個開源的機器學習系統。機器學習是支撐大多數現代AI系統的技術,它負責我剛才談論的模式識別。 Google采取了大膽的舉措,不僅讓TensorFlow免費提供,還讓每個人都可以通過“開源”來訪問軟件的源代碼。這意味著全世界的開發人員都可以(并且確實)增強它并分享他們的變化。
AIY Voice Kit 語音套件
Voice Kit 允許您構建自己的自然語言處理器。 它使用Google語音助手為Raspberry Pi添加了語音控制功能。 構建時,將頂部(HAT)板上的語音硬件附件與Raspberry Pi板連接。
這些物品由紙板組成,并連接到盒子外面的大按鈕和揚聲器。 揚聲器通過兩根電線連接到HAT板。 這些電線傳輸電信號,由揚聲器轉換為聲音。 這就是設備獲得聲音的方式。
存儲卡插入Raspberry Pi,設備連接到電源。 使用Google AIY Projects應用程序無線設置和配置套件。 iOS設備尚未推出類似的應用程序。
AIY Vision Kit 視覺套件
Google 的AIY Vision Kit 可讓您使用圖像識別功能構建自己的智能相機。它介紹了可以檢測常見物體和面部表情的神經網絡概念。 用戶可以使用Google AIY Projects應用程序將套件附加到他們的計算機和/或控制它。 它由兩塊板組成,即Vision Bonnet 和 Raspberry Pi,通過電纜連接器連接。
Vision Bonnet 采用Intel Movidius MA2450,這是一款低功耗視覺處理單元,能夠在設備上運行神經網絡模型。 它與各種圖像識別神經網絡的兼容性將讓您自定義它的外觀和方式。這些設備連接到相機和蜂鳴器。
谷歌在其網站上引入了一個AIY模型區域,展示了一系列預先構建的AI模型,這些模型旨在與其內置的AIY工具包配合使用。 您可以將新模型加載到他們的設備中,以探索AI的不同應用場景。 例如,您可以使用微笑探測器模型來查看是否有人在觀察他們的Vision Kit是否在微笑。
隨著Google Home 和 Echo 的廣泛使用,建立更便宜的AI工具的魅力將會增加。 人類有創造的基本需求,DIY市場和AI市場都將起飛。
機器學習的好處是,在能夠成功執行我正在討論的模式識別之前,您需要提供大量的示例數據。想象一下,你正在使用自動駕駛汽車 - 在能夠合理地確定汽車前面的貓跑出來之前,人工智慧將需要訓練。你通常會通過展示很多貓在汽車前跑出來的照片來做到這一點,也許是在你的駕駛員輔助測試運行期間收集的。你還會展示很多可能遇到的不是貓的東西的照片,并告訴它哪些照片是貓的照片。在引擎蓋下,TensorFlow構建了一個“神經網絡”,這是一個粗略的模擬我們自己的大腦工作的方式。
現在為了坦白 - 我實際上并沒有坐下來教幾個小時。 相反,我使用了現成的TensorFlow模型,Google使用ImageNet進行了培訓,ImageNet是一個包含超過1400萬張圖像的免費數據庫。 在Raspberry Pi本身上構建這個模型需要很長時間,因為它不是很強大。 如果您想創建自己的復雜模型并且無法訪問超級計算機,您可以租用Google,Microsoft和Amazon等計算機來為您完成工作。
AI現在主要是聚焦模式識別 - 靜止和運動圖像,還有聲音(識別單詞和句子)和文本(本文用英文寫成)。一個很好的例子是上圖中的Raspberry Pi徽標。即使認為它有點模糊,我們看不到整個事物,大多數人會認識到圖片包含某種漿果。熟悉這種小型低成本計算機的人幾乎可以立即發現圖片中包含Raspberry Pi徽標 - 電路板背景可能有助于慢慢記憶。
當我們談論“智能”時,事實是這種模式識別非常愚蠢。智能(如果有的話)由人類提供,添加一些規則,告訴計算機在匹配模式時要注意哪些模式以及要做什么。所以讓我們嘗試一下小實驗 - 我們會將相機和揚聲器連接到我們的Raspberry Pi上,教它識別相機看到的物體,然后告訴我們它在看什么。這是一個非常緩慢而笨重的低技術版本的OrCam,這是一項新的發明,幫助失明和視力不佳的人獨立生活。
谷歌的TensorFlow是一個開源的機器學習系統。機器學習是支撐大多數現代AI系統的技術,它負責我剛才談論的模式識別。 Google采取了大膽的舉措,不僅讓TensorFlow免費提供,還讓每個人都可以通過“開源”來訪問軟件的源代碼。這意味著全世界的開發人員都可以(并且確實)增強它并分享他們的變化。
AIY Voice Kit 語音套件
Voice Kit 允許您構建自己的自然語言處理器。 它使用Google語音助手為Raspberry Pi添加了語音控制功能。 構建時,將頂部(HAT)板上的語音硬件附件與Raspberry Pi板連接。
這些物品由紙板組成,并連接到盒子外面的大按鈕和揚聲器。 揚聲器通過兩根電線連接到HAT板。 這些電線傳輸電信號,由揚聲器轉換為聲音。 這就是設備獲得聲音的方式。
存儲卡插入Raspberry Pi,設備連接到電源。 使用Google AIY Projects應用程序無線設置和配置套件。 iOS設備尚未推出類似的應用程序。
AIY Vision Kit 視覺套件
Google 的AIY Vision Kit 可讓您使用圖像識別功能構建自己的智能相機。它介紹了可以檢測常見物體和面部表情的神經網絡概念。 用戶可以使用Google AIY Projects應用程序將套件附加到他們的計算機和/或控制它。 它由兩塊板組成,即Vision Bonnet 和 Raspberry Pi,通過電纜連接器連接。
Vision Bonnet 采用Intel Movidius MA2450,這是一款低功耗視覺處理單元,能夠在設備上運行神經網絡模型。 它與各種圖像識別神經網絡的兼容性將讓您自定義它的外觀和方式。這些設備連接到相機和蜂鳴器。
谷歌在其網站上引入了一個AIY模型區域,展示了一系列預先構建的AI模型,這些模型旨在與其內置的AIY工具包配合使用。 您可以將新模型加載到他們的設備中,以探索AI的不同應用場景。 例如,您可以使用微笑探測器模型來查看是否有人在觀察他們的Vision Kit是否在微笑。
隨著Google Home 和 Echo 的廣泛使用,建立更便宜的AI工具的魅力將會增加。 人類有創造的基本需求,DIY市場和AI市場都將起飛。
機器學習的好處是,在能夠成功執行我正在討論的模式識別之前,您需要提供大量的示例數據。想象一下,你正在使用自動駕駛汽車 - 在能夠合理地確定汽車前面的貓跑出來之前,人工智慧將需要訓練。你通常會通過展示很多貓在汽車前跑出來的照片來做到這一點,也許是在你的駕駛員輔助測試運行期間收集的。你還會展示很多可能遇到的不是貓的東西的照片,并告訴它哪些照片是貓的照片。在引擎蓋下,TensorFlow構建了一個“神經網絡”,這是一個粗略的模擬我們自己的大腦工作的方式。
現在為了坦白 - 我實際上并沒有坐下來教幾個小時。 相反,我使用了現成的TensorFlow模型,Google使用ImageNet進行了培訓,ImageNet是一個包含超過1400萬張圖像的免費數據庫。 在Raspberry Pi本身上構建這個模型需要很長時間,因為它不是很強大。 如果您想創建自己的復雜模型并且無法訪問超級計算機,您可以租用Google,Microsoft和Amazon等計算機來為您完成工作。