Google大腦最新技術:將馬賽克還原成清晰圖像
在觀看島國教育片的時候,往往在不可描述的部位打上了馬賽克,固然呈現了朦朧美,但部分觀眾依然希望變得更加清晰。現在,Google Brain 在提升圖片分辨率方面取得了突破性進展。他們已經成功將 8*8(毫米)網格的像素馬賽克轉換成為肉眼可辨識的人物圖像。
而真正能夠提升低分辨率照片細節的最佳突破口就是神經網路。當我們被照片中所包含的像素信息難倒的時候,深度學習能通過人類常説的「幻想」來增加細節。實質就是軟件基於從其他圖片中學習到的信息對圖片進行猜測。
Google Brain 的研究團隊已經公佈了「像素遞歸超分辨率」技術(Pixel Recursive Super Resolution)的最新進展,儘管結果看上去有點瘮人,但是整個還原效果令人印象深刻。
下面是他們復原的效果案例之一:
右手邊的圖片,是 32 x 32 網格的真實人物頭像。左手邊的圖片,是已經壓縮到 8 x 8 網格的相同頭像,而中間的照片,是 GoogleBrain 基於低分辨率樣片猜測的原圖。
整個復原過程使用了兩種神經網絡。首先介紹的是調節網絡(Conditioning Network),它將低分辨率照片和數據庫中的高分辨率照片進行對比。這個過程中迅速降低數據庫照片中的分辨率,並根據像素顏色匹配一堆同類照片。
接下來介紹的是優先網絡(prior
network),它就會猜測那些細節可以作為高分辨率照片的特徵。利用 PixelCNN
架構,該網絡會篩查該尺寸的同類照片,並根據概率優先對高分辨率照片進行填充。例如,在論文提供的例子中,提供的同類照片是名人和卧室,優先網絡根據優先級最終確認了名人的照片。優先網絡會在低分辨率和高分辨率照片中做出決定,如果發現鼻子的可能性比較大,就會選擇鼻子。
接下來,兩個神經網絡的最佳猜測就會進行整合,最終形成的圖像如下:
下面也是一些通過超像素技術變化的樣本:
在你開始思考:「這並不準確,這個人工智能是愚蠢的」,那麼請記住人類同樣也是愚蠢的。一名志願者參與了這樣的測試,同時展示降低分辨率的照片和通過
Google Brain 復原的照片,然後提問「你猜那張照片來自於相機?」,最終結果是 10% 的名人照片,測試者選擇了 Google
Brain 的照片。在 28% 的卧室樣片中,測試者選擇了 Google Brain 的照片。
儘管技術是純淨的,但是未來可能會有非常可怕的應用。就像是波士頓馬拉松爆炸案一樣,不難聯想到一些執法部門會濫用該軟件來抓取嫌疑犯。更為重要的是,人工智能的多次嘗試已經被證明存在種族主義,因為往往會參雜人類的偏見。分析型人工智能和圖像技術的結合,在未來必然會經歷一段漫長的調試過程。
via gizmodo
雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:蕾娜塔•薩洛