Facebook 人工智能主管:Google X 不會有什麼突破


Yann LeCun是Facebook人工智能研究中心主管,也是紐約大學數字科學中心創始負責人。他發表過180多篇學術論文,其開發的字符識別技術可以驗證支票,也在銀行業被廣泛應用。此外,他也是深度學習領域裏最卓越的開發者之一。

近日,Yann LeCun接受了紐約時報採訪,他表示,從長遠來看,先進的計算機技術將會創造出數字化夥伴,在人們日常生活中陪伴在我們左右。

Q. 人工智能的重要性是什麼?

A. 人工智能會讓數字世界生成的各種信息變得更有意義。與人工智能或是數字世界裏的許多交互會帶來一種所謂的“數字夥伴”,它會給人們的日常工作、生活提供幫助。

Q. 對Facebook來説這意味着什麼?

A. Facebook是一家旨在將人們聯繫在一起的公司,如果Facebook可以獲得各種類型的海量數據,肯定能幫助他們實現自己的願景。根據人們在Facebook上發帖的內容,圖片,以及各類新聞,我們可以在一天內展現2000個事件。但是人們的時間是非常寶貴的,所以我們每天只會挑選100到150個最重要、也是對用户最有幫助的事件進行推送。

為了高效地實現上述目標,理解內容是必須的,通過給圖像標籤,面部識別,以及文本分類,我們做到了。此外,我們還必須知道在不同的狀況下,用户有什麼興趣,想要做什麼,以及他們的朋友圈都有誰。

Q. 未來看上去會是什麼樣?

A. 前面提到的這些功能不算是Facebook未來的產品,而是一種思維方式,也就是説,如果未來人們生活中出現了一個智能數字夥伴,那麼我們需要以一種全新的思維方式來思考事物了。這種方式會影響你與好友之間的交互,擴展你的想法。未來,人工智能應該是可以單點控制的,並且能夠理解、並尊重用户的隱私信息。

隨着時間的過去,這種類型的人工智能會日益增多。在某種程度上,Facebook News Feed中已經或多或少有了這種人工智能的影子,當然還有蘋果的Siri和微軟的Cortana。不過這些產品與用户的交互方式還是比較膚淺的,基本上算是一種照本宣科的方式。

Q. 深度學習,這種機器自主理解事物的能力,是如何運作的?

A. 深度學習可以支持較為複雜的交互。當遇到情況不同的事情時,機器需要回到問題的不同層級,理解問題中的每個步驟,然後逐一解決。這好比是你在覆盤下棋,當你走錯了一步之後,可能需要後退好幾步,通過“糾錯”來發現到底是哪一步走錯了。當然與你從自行車上摔下來也很相似,因為你至少得明白自己是什麼時候失去平衡的。深度學習就是做這些事兒的,在深度學習中,它的追究(Credit Assignment)可能有數十,甚至數百層。

Q. 聽你這麼説好像很簡單。

A. 我們用所謂的“向量”來表達對象,向量就是很長的數字串。“貓”的向量和“狗”的向量很相似,所以它們兩者之間是有緊密關聯的。而對於象徵性的符號對象來説,應該會有更進一步的區分,機器學習會通過在對象之間尋找關聯,繼而判斷出它們的含義。

Q. 你是如何創建一個具有好向量的系統的,換句話説,機器學習能夠根據背景環境表達不同的語義嗎?比如,你是如何讓機器學習語言規則的?

A. Tomas Mikolov在加盟Facebook之前在Google也從事相關工作,他做了大量基於向量的語言關係工作,我們稱之為“詞語到向量”關係。當你需要表達時,你需要使用一連串的詞語,而且這些詞語是有順序的,從邏輯上來説,會有一個詞語開頭,一個詞語結尾。舉個例子,如果你説了一句話,其中有11個詞語,提供開頭和結尾的單詞,你可以要求機器學習預測出中間的詞語。要實現這一目標,系統需要學習每個獨立的詞語在句子中所表達的含義。

我們還在研究語言的向量表達,這樣就能讓你不太費力地理解不同語言了。
Q. 你為什麼最終選擇了Facebook?

A. 解決人工智能問題,需要科技行業、學術界、以及政府共同努力。就目前而言,全世界有實力涉足人工智能領域的公司還是屈指可數的。

蘋果太神祕了,他們不願與人分享技術,那裏不適合研究人工智能。Google部分保密,他們有工程師進行混合研究,但也不是那麼開放。Google X就是一個祕密研究部門,別期望他們會有什麼突破。不過,Google在英國的人工智能項目Deep Mind相對開放的多,所以我對這個項目還是比較樂觀的。

在Facebook,開放可以説已經融入到他們的基因之中了。許多Facebook的軟件和硬件都是開放的。在他們眼裏,自己就是一家開放的公司,因為提供社交網絡服務的公司,開放是一個必不可少的企業文化。Facebook開源了很多代碼,為科技界貢獻了很多價值。

至於如何實現商業化人工智能,恕我不能透露太多。這與我們的研究關係不大,畢竟我們還是要保持些競爭優勢的。

Q. 你們的長期目標是什麼?

A. 給人工智能賦予動機和情感。

Q. 你不能在軟件中渲染情感吧?

A. 好吧,讓我們來談談情感。當人們開始瞭解這個世界,他們會有很多情感表達。人類自身就是一種“預知機器”,我們會按照自己喜歡的方式,以及自己喜歡的狀態去改變這個世界。什麼是情感?其實就是判斷哪些是人類喜歡的事情,哪些是人類討厭的事情。而這些事情其實都是可以被賦值的。就像現在,人們吃飯、繁衍、避免痛苦、賺錢、失業,所有這一切其實都是有原因的。比如你會想,如果我不去上學,以後就沒法找工作,日子就會過得很苦,所以你得去學校。人工智能就是要做出類似這樣的預測,當然,很多時候我們也會感到很矛盾,但是對於利用機器代碼來渲染情感,其實是做得到的。

Q. 要證明你所説的這一切,有哪些困難?

A. 實際上,我們仍然不知道如何去實現一些人工智能概念。最大的困難之一,就是我們不知道如何實現“無監督學習”,也就是機器自主學習。

監督學習,舉個例子,就是你需要去訓練計算機去識別狗或貓咪圖片。如果要鞏固學習效果,方法就是不要告訴機器哪些圖片是正確的。事實上,你只需給機器的表現打分就可以了。通過識別在哪裏出現錯誤,機器可以逐漸理解學習規則。

無監督學習,則是人類的能力,換句話説,人們會通過對事物產生興趣來了解整個世界是如何運作的。就算你把一個玩具藏在盒子後面,孩子們也會知道玩具不是消失了,它仍存在於這個世界裏面。人類和動物具有這種能力。相對於機器而言,絕大多數機器的學習都是監督學習,我們目前還沒有一個足夠好的模型來讓機器實現“無監督自主學習”。

相對於前文提到的“詞語到向量”關係,“向量到詞語”可能算是一種無監督自主學習,然而究竟該如何構建無監督學習的人工智能,目前我們仍缺乏基本原理支持。

via nytimes


資料來源:雷鋒網
作者/編輯:天諾

如果喜歡我們的文章,請即分享到︰

標籤: Facebook  Google X