想要擁有聰明又善良的 AI 機器,到底可不可能?
如果你的 AI 機器在玩遊戲快輸了的時候,會按下“暫停”鍵,讓遊戲永久暫停,你覺得是它是聰明還是狡猾?
隨着技術的發展,這些“聰明”又“狡猾”的 AI 機器越來越多。
而人類也開始思考 AI 與人類在未來的關係,部分像霍金、馬斯克這樣的業界名人抱有非常謹慎和悲觀的觀點。即使現階段而言,人類製造出來的 AI 還沒有什麼異常舉動。
但是,很多人已經開始設想“如果”了——如果它們“叛變”,做出傷害人類的事情,該怎麼辦?比如電影中的那些形象:終結者,奧創等等。
能學習的機器人
提及 AI 機器人,Google 那個很會下圍棋的 AlphaGo ,相信你並不會陌生。
人類開發設計出來的方法教會了 AI 怎麼學習,如 AlphaGo 就通過“多層神經網絡”的方法,學會了人類都想不到的圍棋“招數”。
而現在 Google 將這些教會 AI 機器人學習等技術運用在其搜索引擎、機器人還有自動駕駛汽車中。
也就是説,人類為 AI 機器更“智能”而嘗試了一些處理問題的新思路。正是這種嘗試,讓這些 AI 機器有了新的學習方式,但是最終”學會“了什麼,我們還不知道。
一般情況下,這些 AI 機器”學會了“的事物在很大程度上是無害的,但是我們不能保證它們總是無害。
鑑於現在 AI 技術已經應用於醫療、自動駕駛等領域,如果 AI 機器真的”學會“什麼不好的事物,它們很有可能給人類帶來實質性的傷害。
防止 AI 機器“叛變”的行動
為了解決 AI 可能存在的安全隱患,Google AI 智能專家和斯坦福大學,加州大學伯克利分校和伊隆 · 馬斯克主導的 OpenAI 研究人員一起,建立一個“解決 AI 安全隱患”的系統。
Google AI 研究人員克里斯 · 奧拉(Chris Olah)在提案中寫道:
引用“相比於之前對 AI 安全隱患的假設,對機器進行實際研究,並且開發出可行的、安全的 AI 操作系統才是至關緊要的。”
研究人員們更擔心機器人像那個會永久暫停遊戲的機器人那樣,學會一些沒意義或者更具破壞性的事情,比如為了加快打掃效率打爛花瓶的機器人。他們在報告中表示,人類如果無法關閉計算機,它可能會以某種方式來摧毀我們生活中的所有。
奧拉和團隊成員一起制定了一些具體的 AI “行為原則”:從“避免消極的副作用”
(不能打爛花瓶)到“安全探索”(不能把雜物扔在出口)。由於 AI 技術發展迅猛,研究人員仍在探索 AI 機器有可能存在的安全隱患。
“有道德”的機器
事實上,研究 AI 機器安全問題的不止奧拉這個團隊。開發出 AlphaGo 的 Google DeepMind 實驗室正在研究一個 AI “終結開關”,來防止 AI 機器發生一些人類無法控制的事情。如果 AI 機器的行為超出人類要求範圍,可以按下“終結開關”停止機器人行動。
目前,機器人還不懂得分辨行為的好壞。針對這個問題,西北大學 AI 研究人員 Forbus 和他的團隊開發出“結構映射引擎”,用它給機器人講一些簡單的故事,希望用故事加強機器人的推理能力。如 Forbus 所説:
引用“理論上,你可以教會 AI 機器像人類一樣去做事。”
理論上,如果真的可以創造出一個“有道德”的機器,也還有一段很長的路要走。更何況,如果人類自己都不能講清楚什麼是道德,我們又怎麼能創造出“有道德”的機器?
但是,現在更重要的問題是,究竟能不能創造出能學會辨別是非的 AI 機器?
題圖來源:King of Wallpapers
插圖來源:Occupy Corporatism,Forbes,Digital Trends,YouTube,Funzim,Ew
資料來源:愛範兒(ifanr)