霍金説 AI 可能是人類的災難,有理有據你會信嗎?
科幻小説《2001:太空奧德賽》和根據它改編而成的經典電影《2001 太空漫遊》,講述了 AI 由人類幫手變為人類毀滅者的故事。我們親手打造的 AI,會在未來葬送人類嗎?霍金表示,這絕非危言聳聽。
圖片來自:視頻截圖
近日,在劍橋大學 Leverhulme 智能未來中心的開幕式上,霍金為火爆的 AI 行業潑了盆冷水。
“我們花了大量時間學習歷史,”霍金在演講中説道,“而我們所面對的歷史,大多是愚蠢的。所以,現在人們在研究智能的未來,這是一個令人欣慰的變化。”
霍金表示 AI 研究的確帶來了許多積極因素,認為通過這項新技術,人類或許能夠消除工業化對自然界造成的一些損害,而最終目標肯定是消除疾病和貧困。
引用“創造出智慧的潛在好處是巨大的,我們無法預測當我們的心智被 AI 增強時,我們將達到何種成就。”
“我們生活的方方面面都會被改變,總之,成功創造出 AI 可能是我們文明史上最重要的事。”
圖片來自:Kiplinger
然而,作為享譽世界的物理學家,霍金對於 AI 持謹慎態度,他認為一旦人類創造出具有自我意識的超級智慧,可能會面臨着自我毀滅的風險,因為 AI 的意志可能會與我們產生衝突。
引用“總之,強大的 AI 的興起,或許將是人類最好或是最糟糕的事,這我們還不清楚。”
霍金之所以會有這種擔憂,是因為在他看來,AI 的潛力是無限的,“生物大腦與電腦的能力並沒有太區別。”
“因此,從理論上講,計算機可以模仿人類智慧,並超越它。”
這已經不是霍金第一次對 AI 潛在威脅提出警告了。去年年初,霍金就與一些 AI 專家,還有馬斯克、沃茨等名人發表聯合聲明,呼籲禁止武器化 AI 和自主作戰系統。
圖片來自:Gralien Report
當時霍金解釋説,AI 的真正風險不在於其是否充滿惡意而在於其能力。他舉了個例子:你在負責一項水利工程時,不得不淹沒蟻穴,儘管你並不是一個仇恨螞蟻的人,但在完成目標時無意間就為螞蟻帶來了滅頂之災。
所以,當一個能力 MAX 的超級人工智能在執行任務時,如果它的目標與人類不一致,那麼人類就有可能面臨與螞蟻同樣的厄運。
儘管目前人工智能的發展仍處於起步階段,但霍金對於 AI 威脅的評價,或許值得我們深思:
引用“人工智能的短期影響取決於誰控制了它,而長期影響則取決於它到底能不能被控制。”
題圖來自:Silver Ferox
資料來源:愛範兒(ifanr)