人工智能背後的倫理道德,哲學家和倫理學家怎麼説?


編者按:人工智能發展越來越快,人們開始擔憂的問題也越來越多。雖然大多數涉及人工智能領域的人都對它的發展感到興奮,也有許多人擔心如果沒有適當規劃,高級人工智能可能摧毀全人類。本文作者 Ariel Conn 在文章分析了哲學家和倫理學家在説起人工智能的長遠發展時有哪些擔憂?

在最近議題為“人工智能的倫理問題”的紐約大學會議上,機器智能研究所的Eliezer Yudkowsky解釋説,AI如果有一天真的發起瘋來,並不會像終結者,而類似於米老鼠電影《魔法師的弟子》中的那個被米奇賦予生命的掃帚。米奇命令掃帚去挑水後,掃帚就全神貫注於完成這個目標,不管米奇做什麼,它都不聞不問,只關心如何以更高的效率完成這個任務。一個設計不佳的人工智能很可能就是這樣——而現實生活中可沒有電影裏最後出現的魔法師來阻止這場亂子。

為了形象地展示過於能幹的高級人工智能可能出什麼問題,牛津大學的哲學家Nick Bostrom提出了一個叫做“致命紙夾機”的思想實驗。假設你在進行銷售紙夾的業務,你想製造一個用於儘可能多的生產紙夾的人工智能,這看起來似乎不會有什麼危害。但是,因為這是給人工智能設定的唯一目標,“聰明”的人工智能可能會只關注於製造紙夾,而犧牲掉其他你關心的一切事物。當材料用完時,它會很快將周圍的一切能找到的東西回爐,變成紙夾的原料,然後再重新組裝成紙夾。很快,它將毀滅地球上的生命,地球,太陽系,甚至是整個宇宙——僅僅是為了完成一個命令:儘可能多的生產紙夾,永遠也停不下來。

這看起來很像是杞人憂天,但不妨回想一下,“自動更正”功能給過你多少次亂七八糟的結果?再有就是2010年美股市場Flash Crash事件,誰又敢説自己沒見過自己的電腦出故障時那些奇怪的反應?現在想象一下,這種單純的(儘管看上去已經非常複雜了)的程序在指揮電力系統或是武器監控系統時會有多糟糕吧。

即便是現在,在人工智能系統的應用範圍還非常狹隘的情況下,研究人員發現,簡單的偏見就會導致科技世界中種族主義和性別歧視的增加;網絡攻擊大幅增長;軍事AI軍備競賽可能已經開始了。

在會議上,Bostrom解釋説,開發人工智能時可能會遇到的錯誤分為兩種:可以日後修復的錯誤,和只會發生一次的錯誤。後者更令人擔心。 Yudkowsky也總結了他的擔憂,他説,“人工智能研發者面對的困難就像空間探測器工程師所面對的一樣:一旦你啟動了它,它就在你力所能及的範圍外了。

人工智能研究員和哲學家Wendell Wallach補充説,“我們正在開發一種我們無法有效測試的技術。

隨着人工智能的智能水平越來越接近人類,人工智能設計師如何確保他們的智慧結晶能適當地遵從人類的倫理?人們發現這個問題只會帶來更多的問題。

有益的人工智能看起是什麼樣的?人工智能會有益於所有人還是某一部分人?它會增加收入不平等嗎?創造一個可以感到痛苦的人工智能符合人類道德嗎?在沒有定義“意識”是什麼的情況下能製造出有“意識”的人工智能嗎?人工智能的最終目標是什麼?它會幫助企業嗎?它會幫助人嗎?人工智能會讓我們快樂嗎?

“如果我們不知道我們想要什麼,我們就不太可能得到它,”麻省理工學院物理學家Max Tegmark説。

來自尼亞加拉大學的哲學家Stephen Peterson總結了所有問題的要點,他鼓勵聽眾們不僅要去想人工智能的“最終目標”是什麼,也要去想如何達到這個目標。Peterson舉了吝嗇鬼Scrooge作為例子,Scrooge總是想要幸福,而過去、現在和未來的聖誕幽靈幫助他意識到,金錢也許不能幫助他實現這個目標,朋友和家人卻可以。(譯註:這是狄更斯小説《小氣財神》中的內容)

Facebook的人工智能研究總監Yann LeCun認為,這種先進的人工智能還有很長的路要走。他用巧克力蛋糕比喻了當前人工智能發展狀態。“我們已經知道如何做糖霜和櫻桃了,”他説,“但我們不知道如何做出蛋糕成品來。”
但如果人工智能的發展就像烤蛋糕,那麼人工智能的道德就像蛋糕的起酥部分,需要微妙的平衡和不斷關照才能做到完美。在為期兩天的活動中,大多數參與者都認為,確保人工智能不犯下永久性錯誤的唯一方法,不論高級人工智能何時成形,就是從現在就開始着手解決道德和安全問題。

這不代表會議的參與者不對人工智能感到興奮。事實上他們也因人工智能的發展興奮不已。人類和人工智能協同工作可以極大的改善生活水平。關鍵是要在製造有益的人工智能時,了解可能出現什麼問題,這些問題又要如何解決。

“當涉及到人工智能時,”康涅狄格大學的哲學家Susan Schneider説,“哲學就是生與死的問題。”

文章來源:蟲洞翻翻 譯者ID:鐦-252


資料來源:36Kr

如果喜歡我們的文章,請即分享到︰