能毀滅人類的是 “人工非智能”
別幻想超級智慧的AI(人工智能)了,先去考慮下那些愚蠢的算法吧 。
你要做好思想準備,五月份就要上映《復仇者聯盟2:奧創紀元》,在這之前的幾周時間裏,不少科技網站的編輯和寫手可能會對AI大加批判,屆時會有一大波文章來闡述AI給現實生活帶來的威脅。無論《復仇者聯盟2》是否會打破票房紀錄,至少給我們帶來了另外一種視角,讓我們可以“奧創”的形式,重新審視AI暴動。
開發奧創(由著名影星詹姆斯·斯派德配音)的初衷是維護世界和平,保護人類免受其他威脅,但最終它為了追求完美,決定將人類斬盡殺絕。這是好萊塢最新一次,當然肯定不會是最後一次將人工超級智能融入到電影裏面。媒體自然不會錯過這個好機會,一定也會大肆報道,繼而引發人們對AI的深深思考。
能滅絕人類的,是愚蠢的AI。
AI絕不會完全無害。一些自主算法會對人類造成傷害,這是不可避免的。但是對待AI可能造成的風險,還需要進一步評估,至少頭腦需要保持一點冷靜。就像太空中廢棄的衞星,你需要識別它們可能造成的危害,然後再去選擇是把他們變成太空垃圾,還是進行廢物利用。
有害的AI可能和人們所想的超級智能完全不同,它可能不會像奧創一樣,而能毀滅人類的AI可能非常愚蠢。
種族主義
在AI安全概念的背後,有一股很明顯的勢頭。今年一月,非營利性組織Future of Life Institute發佈了一份AI安全公開信。但這不是一次業餘的作秀,因為除了很多不明真相的羣眾,一些專業人士也參與其中,包括了計算機科學家,機器人學家,以及法律專家。
Ryan Calo就是其中之一,他是華盛頓大學的法律教授,主攻機器人領域的法律問題。對Calo來説,AI的短期風險其實和智能無關,而是所謂的自主權。
引用“我很擔心會出現一些意想不到、又萬分緊急的狀況。比如,或許在未來的某天,你會忽然發現很多人無法貸款和信用卡,而造成這種狀況的竟然是一個AI算法,因為算法發現他們的主要關係網絡為非裔美國人。整個過程中,沒有人持有種族主義態度,這無疑是個巨大的醜聞。”
Calo的假設確實很令人憂心。首先,現實世界中就存在某些人的權利被剝奪的狀況,因此有時候你根本無法分辨哪些狀況是AI造成的,哪些又是人為造成的。在AI的背景下,自主權的定義就是無需人為干預。比如程序員可能不會把某些事關聯起來,但AI卻能通過一些純粹的定性分析,實現它們的“目的”。顯然,這些AI做出的結論可能不會準確,但如果你想想看,一些數據代理商和廣告商正是無恥地利用這種AI技術,追蹤人們的線上活動,收集我們訪問網站的各種信息。
Calo所舉得那個種族主義例子可能是由於AI連接到錯誤的“點”上造成的。實際上,“種族主義”並不是一個最具説服力的AI例子,現如今很多更高級的行為追蹤軟件就在做着不少“骯髒的勾當”,在這些軟件面前,一個小小的“種族主義”算法真的是小巫見大巫了。
另外在Calo眼裏,AI其實不算是個真正的“種族主義者”。一個沒有觀點的機器是不可能帶有任何偏見的。但是,社交和情感智能的缺乏卻會帶來巨大問題。
引用“必須從法律上來管理風險,讓受害者能夠得到補償。但實現這種方式,需要找到罪魁禍首,而可能的情況是會出現很多受害者,但找不到作惡者。法律此時也會顯得蒼白無力了。”
無過錯戰爭罪行
對於由AI驅動的機器人,如果讓他們殺人,此時可能會產生戲劇性的影響。在科幻小説裏,武裝機器人經常出現戰場暴行,比如一箇中央超級智能給他們下達殺人的指令。而更有趣的問題出現在與遠程通訊機器人的聯繫中斷時。
當軍事機器人進攻某個目標時,一般而言都會有人類參與。但當無人機或地面機器人忽然通訊中斷,又會出現什麼狀況呢?是停止?還是撤退,又或是暴露在敵人的炮火中,或被俘虜?去年六月,美國國防部高級研究計劃局旗下的Robotics Challenge項目就進行了一次機器人模擬戰爭,他們的答案是通訊中斷後,繼續完成任務。
此外,還可能出現其他狀況,比如武裝機器人很可能引發戰爭罪行,因為他們可能忽然把毗鄰戰場的平民百姓列為進攻目標,也不會放過戰敗投降的士兵。也有一些容易界定的情況,比如機器人出現故障,會向人羣開火,濫殺無辜。
問題的重點在於,由於AI可以獨立執行殺戮行為,沒有人能對此負責。
引用“在戰爭罪中,上級必須要對下屬所犯下的罪行負責,也就是説從法律角度上來看,上級必須有效地控制下屬。但如果軍事指揮官無法有效控制機器人(AI機器人可以自主選擇殺人),是否意味着他們就沒有責任?”
機器人專家和各國需要為各種情況做好準備,明確道德和法律之間的灰色底單,因為一旦無知的機器人自主權氾濫,那麼許多暴行將會逃脱歷史的懲罰。
股票崩盤,肢體損缺,以及其他日常災害
當然,絕大多數的AI還是比較安全,即便出現問題,也不至於殺人。毋庸置疑,一些自主選股軟件又會再次浮出水面,繼而有可能再次引發2010年那場“閃電崩盤”的股災——當時道瓊斯指數在短短几分鐘時間裏下跌1000多點。其他AI也會曲解敏感數據,引發一系列悲劇發生,一旦數據分析有誤,工廠裏幹活的機器人和養老院裏的機器人會錯誤對待人類。
上面這些例子其實並不算太嚴重,因為還有很多聳人聽聞的,雖然研究人員和機器人專家鑽研AI安全是非常枯燥的,但是如果不真正對待的話,很多悲劇是無法避免的。
事實上,AI還有一個潛在缺陷,那就是假設它比實際上的還聰明。隨着越來越多的機器人融入到人類的生活,高估AI能力很可能會導致實際傷害。“未來的方向,是機器人與人類並肩工作,”Tony Stentz説道,他是卡耐基梅隆大學機器人技術工程中心主管。Stentz理想中的未來工廠,是機器人的力量與人類的思維完美結合,這種團隊是非常有前途的。但是AI研究人員和機器人專家必須要讓機器人明白自己的目標和能力,否則為造成非常大的安全隱患。
要明白機器人能做哪些,不能做哪些
高估AI會導致一系列問題。在美國馬里蘭州,當地監獄已經開始使用算法來評估哪些假釋犯人需要嚴加監管。軟件開發人員肯定覺得自己的產品對於量刑建議有非常大的幫助,但問題是,當涉及到如此重大的決定時,依靠一個智能軟件真的靠譜嗎?
不僅如此,一旦AI自主權得不到有效控制,很可能出現所謂的“滑坡效應”,引發全球危機。比如工人本可以在工作中避免受傷,但是由於算法錯誤卻導致殘疾;還有人可能受智能選股軟件的誘導,把畢生的積蓄砸進股票市場,最終家破人亡。可怕的是,這些受害者可能會忽然發現,自己竟然得不到法律保護,甚至連財務追索權都沒有(靠機器人賺錢的想法的確有些愚蠢)。
這些AI安全問題,正是研究人員和專家需要考慮的,他們也必須要考慮各種非預期後果,如果説我們無法阻止超級AI接管世界,但至少,我們得明白它們會給我們造成哪些潛在影響。
VIA POPSCI
資料來源:雷鋒網
作者/編輯:天諾