Google Pixel 2 的視頻穩定能力是如何獲得的?Google 親自來解答


從 Nexus 6P 和 Nexus 5X 開始,Google 自家手機的拍照能力比前代有了明顯的提升,而在這之前的 Google 親兒子系列的拍照能力,不提也罷。


到了改朝換代的第一代 Google Pixel 時,親兒子的拍照實力可以説有了一個質的飛躍,當時在 DXOMark 上的評分以及本身的拍照能力,也已經是可以俯視一眾對手。


而剛剛發佈不久的 Google Pixel 2 也是拿下了目前為止智能手機拍照的最高分 98 分,對於 Google 來説,硬件從來不是最拿手的,但軟件和算法卻可以彌補甚至提升拍照的體驗。

Google 相機中的 HDR+ 算法,則是具有代表性的一個,通過 Google Camera 相機應用,可以讓手機獲得比自帶相機更好的拍照效果。


除了拍照,Google 還為 Pixel 的攝像能力加入了“視頻穩定技術”,在一年前的初代 Pixel 上,我就曾體驗過那種神奇的效果。


(初代 Pixel 的視頻畫面雖然穩定,但是很像機器人視角)

但是,在初代 Pixel 上實現的穩定效果,完全是通過軟件達成的,因此,雖然能獲得極強的穩定性,但整個畫面看起來卻非常的奇怪,有點像機器人的感覺。

而不少人也把這個現象叫做“Terminator effect”(終結者現象),我只能説形容的非常貼切。


在 Google Pixel 2 上,這個現象被很大程度的改善了,而其拍出來視頻的穩定性確實比前代更好,而且畫面看起來也更加的自然了。

那麼要用手機拍出如此穩定的視頻,背後有哪些玄機呢,Google 最近發佈了“Fused Video Stabilization”技術的文檔,來揭露其中的細節。


首先,在 Google 看來,影響手機錄製視頻的問題主要有這麼幾個,相機的抖動,運動狀態下的畫面模糊,快門失真(也就是當移動過快時畫面扭曲)。


前兩者都比較好理解,都是我們錄製視頻時移動手機或者走動時經常會發生的。而快門失真,簡單來解釋的話,是因為相機在拍攝的時候,每一幀都需要一定的時間,尤其是從上到下拍攝時,這種現象會更明顯。

而如果相機移動的過快,當相機拍攝到被攝物體的底部時,上半部分可能就會出現錯位的現象,或者會鋭利度會出現間歇的變化,使畫面扭曲。


這些問題,在新的“Fused Video Stabilization”技術下得以在一定程度上解決掉。

在錄製視頻時,OIS(光學防抖) 和 EIS(電子防抖)同時開啟,初代 Pixel 上只用 EIS,這也是使得畫面看起來僵硬不自然的一個原因。

OIS 的原理,是使用機械懸掛式相機,通過電磁鐵的快速移動,來補償或抵消拍攝中產生的震動;而 EIS 的作用則是在錄製和播放視頻時,犧牲掉部分幀來減少畫面的抖動。

目前的 EIS 有很多種,不過其工作原理幾乎是一樣的,都是去編輯錄制的每一幀來保證畫面的穩定。


而在 Google Pixel 2 上的 EIS,則是通過來自陀螺儀和加速度計的硬件數據來增強視覺識別系統。

陀螺儀和 OIS 的數據將會被記錄在每一幀中,而每一幀則會被存儲到緩衝區中,然後交由一個叫做 lookahead filtering 的神經網絡模組進行計算和優化,也就是説,這裏面也用到了機器學習。


此外,Google 這一套全新的算法還包括了錄製視頻時對下一個可能的運動方向及畫面的預測,還包括對原始運動數據以及相應的幀的整合運算,而對於每一個被記錄的幀,設備都會重複這個過程,最後才能得到我們看到的結果。


以上這些還只是“Fused Video Stabilization”機制中的一部分,Google 公佈了更多的技術細節,如果你感興趣,可以前往閲讀更多的內容

Google Pixel 2 XL 已在路上(但願,到手後會帶來詳細的評測。


資料來源:愛範兒(ifanr)

如果喜歡我們的文章,請即分享到︰