你信嘛?誰都能假裝你跟別人視頻


現如今你收到一個好友的借錢短信,第一反應不是直接打錢而是先找本人確認,其中視頻無疑是最能夠獲得別人信任的一種確認方式。據 《華爾街日報》報道,一組來自美國和德國的研究人員最近成功的實時將面部表情和嘴脣運動從一個人的臉,轉移到另一個人的臉上。

該方法被命名為“面部表情重新設定(Facial Expression Re-enactment)”,由紐倫堡大學,德國 Max Planck 學會和斯坦福大學的研究者聯合開發。這項研究還應用了來自 NVIDIA 的圖形芯片,後者還提供了部分硬件。這個方法也將在 11 月上旬的日本神户計算機圖形會議正式提交。

黑科技如何實現的?

下面是它的工作原理:首先識別兩個人的面孔,包括皮膚顏色,形狀,頭部姿態等參數。這些都需要一個能夠捕獲編碼顏色和深度數據的攝像頭來完成,硬件如微軟  Kinect 的或華碩 Xtion PRO , 當然他們的實時動作也會被記錄下來。


軟件會自動生成與目標相似的模擬嘴的圖片,但不會處理的眼部運動。 它還會增加陰影和其他燈光效果,給人一種在真實説話的錯覺。 下一步,軟件將面部活動通過數字呈現的方式加載到目標的臉,調整膚色,頭形,頭部運動和照明, 最後是動態皮膚的細節,如皺紋和褶皺。

最終的效果是,替換目標面部看起來正在説另一個人所在説的話。

視頻信任真的有危機?

放心,這套系統並不會調整源的語音語調來匹配目標的,當然這也是下一步研究中的一個非常有趣的方向。雖然該系統為半成品,但它在虛擬現實和視頻編輯期間的多語言視頻會議的實時翻譯等領域的前景可以期待。開發者 Niessner 在接受採訪時説:

引用“對於聲音的仿冒是很難的,目前仍然不成熟。”

也有人指出,這項技術如果被用歪了的話同樣會造成非常壞的影響,如允許假冒他人進行現場直播或生產假冒視頻勒索。對此,開發者 Niessner 表示這項技術也能反過來可以用來檢測假視頻,對目標源和燈光之間的分析就能做到這一點。而且目前他們已經收到了來自心理學家以及音樂視頻相關應用方面的測試請求。他最後説到:

引用“重要的是讓人們意識到這一點,並且將技術手段開發出來,使得他們可以反向監控這種操作,”

總體來看,絕對是黑科技無疑,但由於聲紋模仿仍然不成熟,想完全假冒他人暫時還做不到。反正以後別人找你借錢,確認的時候記得打電話,就別視頻了。

題圖來自 movieboozer


資料來源:愛範兒(ifanr)
作者/編輯:李 賡

如果喜歡我們的文章,請即分享到︰