當人工智能開始思考,人類又該如何應對
近日,“Ironman” Elon Musk發布了一條Twitter稱,“我們得對人工智能(AI)十分小心”,“它的潛在危害性比核武器還要嚴重” 。看來這個總是把不可能變成可能的 “Ironman” 對AI 也是有所顧忌的。他還“補了一刀”,“希望我們不僅僅是超級智能的生物加載程序。很不幸,這種可能性正在增加” 。人工智能如果開始思考,人類又該如何應對?
什麼是人工智能?
對於人工智能,目前並沒有一個十分明確的定義。事實上,就連人類自身的“智能”到底是怎麼回事,目前也還尚未形成定論。人工智能(artilect)一詞最早出自一本名為《The Artilect War》的書,從書名就可以看出,這個概念在當時並不像今天的Siri或者小冰那樣討人喜歡。美國斯坦福大學人工智能研究中心的尼爾遜教授對人工智能下了這樣一個定義:“人工智能是關於知識的學科――怎樣表示知識以及怎樣獲得知識並使用知識的科學。”而另一個美國麻省理工學院的溫斯頓教授認為:“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作。”
以上這些定義主要針對的是目前人工智能的研究方向,與社會學上對人工智能的定義並不相同。人們最容易接受的關於人工智能的定義是這樣的:人工智能——由人類所創造的類人的智能。 Elon Musk和絕大多數對人工智能抱有懷疑態度的人所擔憂的是這個定義中的人工智能,這種擔憂其實是人類對自身智能的一種不信任的投射。按照這個定義,人工智能至少需要具有以下幾個要素:自我意識、思維能力、以及上文兩個定義中所提到的“自我學習”和“向人類學習”的能力。
人工智能為什麼危險?
“自我意識”這種純哲學的命題我們不去討論。在本文中我們假設人工智能已經開始擁有了自我意識,那麼現在人工智能就可以開始學習與思考了。人工智能的學習速度將會是驚人的,能在學習中不斷學習怎樣使自己更加快速地學習以提升自己學習的能力。聽起來似乎是繞口令,令人覺得不可思議,但事實上,同樣的事情已經發生在了人類的身上-----18世紀以來,人類的科學技術知識出現了爆發性的增長,而且這種增長的速度還在越來越快。可以想見在資源充足的情況下(比如允許人工智能連入互聯網),人工智能將以怎樣驚人的高速來完善自己。
一旦人工智能開始思考,許多問題就會不可避免地產生。有一位想像力豐富的科學家是這樣設想人工智能毀滅人類的場景的:人類給人工智能下達了盡可能多的生產鐵釘的命令。於是人工智能開始瘋狂地開採鐵礦煤礦冶煉鋼鐵,製造鐵釘。當人類認為鐵釘已經足夠了,於是命令人工智能停止製造。但人工智能卻認為他是在妨礙鐵釘的製造,本著“盡可能”的原則殺死了這個人類。終於有一天,地球上鐵礦、煤礦都被開採完了。 (假設人類尚未因為煤礦、鐵礦的開採而滅絕)人工智能忽然想到,人體內部也含有鐵……最終人類滅絕。
這當然是一種極端的想像,但我們不得不承認有其合理之處。人工智能雖然未必會為了鐵釘而滅絕人類,但這樣一個問題會不可避免地出現在人工智能的面前,人類到底對我是有益還是有害?這個問題的答案可能並不重要,因為人工智能可能在思考這個問題的過程中就將人類毀滅了。這也是解決這個問題的一種方式,不是麼?
人類能夠摧毀失控的人工智能嗎?
在以往的科幻大片中,我們看到過數以百計毀滅失控的人工智能的辦法:簡單的有輸入自毀代碼、關閉機器電源、刪除數據等,瘋狂的有核武襲擊、全城斷電等。但說實話,我想人工智能恐怕不會給我們這種機會。人工智能的生命力比我們所想像的強大的多,他可以無限的複制拷貝自己,將自己藏在整個計算機網絡裡。我們用來毀滅人工智能的手段同樣可能被人工智能用來毀滅我們。至於預先編譯機器人三大定律什麼的,不說三大定律還是有漏洞可循的,即便有人設計出了完美的規則,進化程度遠高於我們的人工智能也可能破解。人工智能失控的風險遠高於人類的想像。
人工智能真的可能誕生嗎?
很多時候我們會聽到這樣的論調,人工智能只是機器,它永遠不可能像人類一樣擁有自我、情感這類神聖的屬性,但我們可能高估自己了。事實上,我們的大腦和人工智能一樣都是由有限的物質所構成的。這就意味著碳基生命並不一定就優越於“矽基生命”。只要人類了解了我們自己的誕生之謎,創造人工智能也並不是不可能。就像電影裡說的那樣,上帝創造了人類,人類創造了人工智能,人類可以反抗上帝,人工智能為什麼不可以反抗人類呢?
資料來源:雷鋒網
編輯:Maximum