人工智能有多大可能學會 “思考”?

跨界裝逼遭雷劈!

跨界裝逼遭雷劈!

跨界裝逼遭雷劈!

重要的事情説三遍,然後我這個中文系學生要開始對人工智能評頭論足啦。

一兩個月前我堅定地認為機器永遠也無法擁有自主意識,所以人類不需要擔心人工智能會反過來統治人類,甚至每次看到蠱惑“人工智能是惡魔”的人都要跳出來激烈地抗辯一番,恨不得直接罵人“傻X”。但最近看到一些高階機器人的出現(麻省理工的獵豹和日本武士機器人,其實也不是很高階,還是肌肉反應的階段),更重要的是接觸了一些新觀點,之前的觀念發生了一些變化。

在上海出差,採訪完騰訊優圖的Gary,和他以及另一個工程師吃飯的時候閒聊。

引用“即使我現在把一個小孩從生下來到10歲的所有的數據都給你,你有辦法訓練出一個跟他一樣的系統來嗎?做不到,所以現在也不是一個數據上的問題,而是我們本質上還不瞭解這個問題。”我引述出門問問CTO雷欣的觀點。

“初生嬰兒的大腦數據並不是空白,它早就攜帶了人類幾百萬年進化的信息。如果我們能把這些數據和達爾文進化論也變成訓練數據的一部分,(複製一個一模一樣的系統)是有可能的。”該工程師哥哥。

“你的意思是説,還是數據量和計算能力夠不夠的問題?”我。

“可以這麼理解。”他。

“機器計算能力的增長速度是指數級的。”Gary。

DFRobot的葉琛博士也説過“唯一制約神經元網絡發展的就是計算能力”,所以,其實是一個足夠大的量變引起質變的問題?

引入一個橫亙在人和機器之間的“邦加德問題”(可以這麼理解:無法解決邦加德問題,就無法解決人工智能“自主思考”的問題):

引用蘇聯的數學家邦加德提出的邦加德問題是模式識別的一個重要概念。給你兩組圖形,每一組圖形有三個圖,找出左手邊的6個樣本圖形所遵循的規律,並且確定右手邊的6個樣本圖形不符合這個規律。


人類的肉眼至少還可以判斷左邊三個點連起來都是三角形、都是鈍角三角形之類,但機器表示很困惑:我應該看什麼?一個對象或情景可以有不同的表示,具體表示什麼和上下文情景有關,這是人類獨具的“高層感知”能力,其最重要的特性之一就是它的極端靈活性(根據情景調整感知側重點),比如媒體刊出某張趙薇和范冰冰微笑合影的圖片,想表達的是兩人“相逢一笑泯恩仇”,但是我們現在的機器看到這張照片作出什麼判斷呢?應該是“兩人外貌相似度10%”、“左邊年齡33,右邊年齡31”之類吧。

高層感知,這也正是現代計算機技術尚不能完全實現的智能識別機制。

但邦加德問題是一個不能被解開的謎題嗎?不一定,人腦作出“相逢一笑泯恩仇”判斷過程是確鑿無疑而不是隨機、偶然的,確鑿無疑的東西一定有規律可循。我們現在無法完全解釋這種規矩,有可能是因為現有的數據蒐集不夠、技術水平無法將“高層感知”的過程分解成可以捕捉、識別的數據(深度學習的數據層數還不夠),而並不是它本身不可以被認知。

解決這個問題會伴隨着多得足以讓人瞠目結舌的數據和計算,甚至多得可能引起計量單位界的“通貨膨脹”,所以被認為遙遙無期,但霍金和Elon Musk,他們是離“計算”更近的人,應該是能更切身地感受到機器計算能力迭代的速度有多麼驚人,所以會比一般人對人工智能警惕性更高。

所以,你説未來有一天,機器會不會完全GET到人腦的機能?未必不可能。但我還是對人類的未來表示樂觀,如果萬能的科學家能造出有自主意識的機器人(那就是造物主God先生了啊),應該也有辦法提前造出約束它的規範和秩序吧。

本文轉載請註明來源:http://www.leiphone.com/news/201506/zgNKA16lXuyPzCb2.html


資料來源:雷鋒網
作者/編輯:某小霞

如果喜歡我們的文章,請即分享到︰

標籤: 人工智能