頂尖 AI 無法識別簡單圖案?因為人類已經無法理解它們了


看看下面的黑黃相間的條紋,告訴我你看到了什麼。沒什麼,對吧?不過,如果問最頂尖的人工智能同樣的問題,它會告訴你,這個圖案代表校車。它會説這一評估的有效度超過 99%。但這個答案 100% 錯了。


計算機真的非常擅長識別物體。不過,一篇新論文將我們的關注引向了超智能算法完全無用的領域。這篇論文詳細闡述了研究人員們如何用隨機生成的簡單圖片愚弄最先進的深度神經網絡。這些算法一次又一次地將混合的抽象圖形看成是鸚鵡、乒乓球拍、百吉餅和蝴蝶。

這些發現迫使我們瞭解一個很明顯但極其重要的事實:計算機視覺和人類視覺根本不相同。然而,由於計算機越發依賴神經網絡來學習觀看,我們也不是很確定計算機視覺與人類視覺有何差異。正如開展研究的研究人員之一 Jeff Clune 所説的,在人工智能上,“我們可以在不知道如何獲得結果的情況下得到結果。”

升級圖片來愚弄人工智能

發現這些自訓練算法為何如此聰明的方式之一是,找到它們愚笨的地方。在這個例子中,Clune 和博士生 Anh Nguyen 以及 Jason Yosinski 就是要看頂級圖像識別神經網絡是否易受誤報影響。我們知道,計算機能識別考拉。但是否能讓電腦把其他東西認作是考拉呢?


為了找到這一問題的答案,這個團隊通過進化算法生成了隨機圖像。基本上,這些算法生成了非常有效的視覺誘餌。在進化算法中,程序會生成一張圖片,然後稍微改變一下圖片(突變)。原始圖片和複製後的圖片都展示給經過 ImageNet 訓練的神經網絡。ImageNet 包含 130 萬張圖片,已經成為訓練計算機視覺人工智能的必備資源。如果算法對複製後的照片更確定,研究人員們就會保留它,如此循環往復。否則他們會後退一步,然後再次嘗試。Clune 表示道:“這不是適者生存,而是結果最漂亮的圖片會生存”,或者更精確的説,計算機識別精度最高的圖片會生存。

最終,這一技術生成了幾十張神經網絡認為精確度超過 99% 的照片。在你看來,這些照片看起來很不一樣,就是一系列的藍色和橙色波浪線,一堆橢圓,以及黃黑條紋等。但在人工智能看來,這些圖片都是很明顯的匹配:分別是金魚、遙控器和校車。

一窺黑盒內景

在一些情況中,你能開始弄懂人工智能是如何被愚弄的。眯着眼睛看,校車看起來就像是由黃黑條紋相間組成。類似的,你可以看明白讓人工智能認為是“帝王蝶”的隨機生成圖片確實能夠組合出蝴蝶翅膀,以及“滑雪面具”圖片確實看起來像是一張誇張的人臉。

但事情要複雜得多。研究人員們還發現,人工智能總是會被純靜態圖片所愚弄。研究人員們使用略有不同的進化技術,生成了另一組圖片。這些圖片看起來幾乎都一樣,和壞掉的電視機上出現的畫面差不多。然而,頂尖神經網絡以 99% 的精度確認這些圖片中是蜈蚣、獵豹和孔雀。


對 Clune 來説,這些發現暗示神經網絡通過多種視覺線索來識別物體。這些線索也許和人視覺線索很像(比如校車),也許不像。靜態圖片的結果顯示,至少在有些時候,這些線索非常顆粒化。也許在訓練中,神經網絡注意到一條由“綠像素、綠像素、紫像素、綠像素”組成的線條在孔雀的照片中很常見。當 Clune 及其團隊生成的照片恰巧有同樣的線條,它們就觸發了“孔雀”特徵。研究人員們還能用完全不像的抽象圖片觸發“蜥蜴”特徵,顯示神經網絡只依靠幾項線索來識別物體,而且每一種線索都能觸發確認的特徵。

我們周密計劃來愚弄這些算法的事實也指出瞭如今的人工智能中更大的真相:即便這些算法奏效,我們也並不總是知道它們起作用的原因。“這些模型變得非常大,也非常複雜,而且它們在自我學習”,身為美國懷俄明州立大學進化人工智能實驗室負責人的 Clune 表示道:“神經網絡中有數百萬神經元,它們都各行其事。我們也不是很瞭解它們何以取得如此驚人的成就。”

類似的研究是試圖逆向工程這些模型。他們想要了解人工智能的大致輪廓。Clune 解釋道:“在過去一兩年中,我們瞭解了很多神經網絡黑盒內部的情況。這一切都還很模糊,但我們已經開始看到它了。”

不管怎樣,為什麼計算機的誤判是個重要問題呢?

在本月早些時候,Clune 在蒙特利爾舉辦的神經信息處理系統大會上與同行研究人員們討論了這些發現。此次大會聚集了一些人工智能領域最聰明的思考者們。大家的反應可歸為兩個陣營。一個陣營的人認為這項研究很有意義,這個陣營的人年紀要更大,在人工智能領域的經驗更豐富。他們或許預測會出現不同的結果,但同時認為這些結果完全可以合理。

第二個陣營由沒有花多少時間思考是什麼讓如今的計算機大腦運轉的人組成,這些人對這一發現表示震驚。至少在最開始,他們很驚訝,這些強大的算法居然也能犯這麼簡單的錯誤。需要提醒的是,這些人還發表神經網絡的論文,並且出現在今年最高級的人工智能大會上。

對 Clune 來説,兩極分化的反應表明:人工智能領域正發生代際轉變。幾年之前,在人工智能領域工作的人在搭建人工智能。如今,神經網絡已經足夠好,研究人員們只是獲取現有的東西來運用。Clune 表示:“在很多時候,你可以直接用這些算法來解決問題。人們湧入進來運用人工智能就像淘金熱一樣。”

這並不一定是壞事。但隨着越來越多的東西建立在人工智能上,探索人工智能的缺陷也就變得越來越至關重要。如果算法僅憑一條像素線就斷定一張圖片是某種動物,想想色情照片通過安全搜索過濾器會有多容易。短期來説,Clune 希望這項研究會促進其他研究人員開發將圖片全局納入考慮的算法。換句話説,能讓計算機視覺更像人類視覺的算法。

這項研究還讓我們考慮這些缺陷的其他表現形式。比如面部識別也是以來同樣的技術嗎?Clune 表示:“一模一樣,面部識別算法也很受同樣的問題影響。”

你還可以想象這一發現的所有有趣應用。或許某種 3D 打印的鼻子就足以讓電腦認為你是別人。也許穿上一層表面有幾何形狀的衣服,監控系統就會完全無視你。這一發現證實,隨着計算機視覺使用率上升,破壞它的可能性也很隨之上升。

往大點講,隨着我們進入自學習系統時代,這一發現也提醒了我們一個快速浮現的現實。現在我們仍然能控制我們創造的東西。但隨着它們不斷構建自身,我們很快就會發現,它們複雜得讓我們看不透了。Clune表示:“人類再也看不懂這些計算機代碼。它就像是一個由互動部分組成的經濟體,智能從這中間浮現了出來。”

我們肯定會立刻使用這一智能。但在我們這麼做時,我們是否能完全理解它就不得而知了。

via wired


資料來源:雷鋒網
作者/編輯:1thinc0

如果喜歡我們的文章,請即分享到︰