如果人和動物都有權利,機器人是不是也應該有?| 特稿編譯
編者按:近日日本北九州市一家名為"太空世界"的主題公園為了製造效果買來了5000條魚買到冰層底下,希望營造出人魚共遊的效果。但是卻被不少人斥責為“殘忍和令人厭惡”。在輿論壓力下園方表示道歉並將所有魚取走。為什麼我們會關心動物道德?因為也許在不久的將來,我們的對動物的道德規範也許就會被AI應用到我們自己身上。已經有人在探討人工智能的道德代碼應該如何編寫了。而《紐約客》的這篇文章則從動物道德談到了機器人的權利,值得我們深深思考。
引用關於動物,我們會把自己設想為它們的同類或者保護者。對於我們,機器人也許很快就會面臨着同樣的選擇。
Harambe——這頭大猩猩該死嗎?
Harambe是一頭大猩猩,大家對它的形容是“聰明”、“好奇”、“勇敢”、“高尚”。但直到今年春天以前Harambe還沒有出名。今年5月28日,一個男孩,也是一樣的好奇和勇敢,偷偷翻過了辛辛那提動物園的圍牆,落到了Harambe和其它兩頭大猩猩一起分享的棲息地邊上的壕溝(有水)裏。圍牆上的人又是吶喊又是大叫,想靠各種響聲來發出警告。Harambe站到了男孩邊上,似乎是想把小孩和騷動隔離起來,但隨着喊聲變大它抓起了男孩的一個腳踝,就像拖着一個玩偶經過遊戲室一樣拽着小孩跑掉了。有那麼一會兒,它曾經優雅地扶着小孩的腰,撐着他的腿,讓他保持一個正確的人類站姿。但隨着呼喊聲的繼續,它再度拖起小孩跑過了半條壕溝。
Harambe是一頭17歲的銀背大猩猩,力氣大得可怕。動物園管理員嘗試引誘它放開男孩,但失敗了。(出於擔心小孩生命安危),動物園危險動物反應小組的一位成員射殺了這頭大猩猩。小孩隨後被送往醫院,經過短暫處理後就出院了,並沒有受到嚴重傷害。
Harambe在斯瓦西里語中有“齊心協力”之意。但這頭大猩猩死後似乎卻讓大家產生了分裂。動物園主管Thane Maynard 説:“我們朝Harambe開槍不是草率決定,實在是因為小孩的生命有危險了。” 靈長類動物學家大都同意他的説法,但一些羣眾卻悲痛欲絕。Facebook上出現了一個叫做致敬Harambe的小組,裏面有粉絲給它畫的肖像,大家相互交換名為#JusticeforHarambe的標籤,還有一首冥想曲,“我們將永遠記得Harambe的犧牲……安息吧,英雄。”
隨着這頭大猩猩的故事細節在媒體上彙集,大家用時尚的通訊社鏡頭來對它進行刻畫,它蜷伏着,一隻手臂搭在右膝上,就像年富力強時的肖恩·康奈利那樣對着鏡頭沉思。一封呼籲進行刑事調查的請願書是這麼説的:“這頭美麗的大猩猩因為孩子的父母沒有看緊孩子而失去了生命。”這個請願得到了50萬份簽名,CNN指出,這個數字甚至比要求起訴射殺Tamir Rice的警察的請願者數量還要多幾十萬。大家把想法投射到Harambe的頭腦,眾人的憤怒達到了頂點。神經學家Kurt Gray告訴該電視網絡説:“我們往往透過人類的視角來審視自己的行為。無法想象作為一隻大猩猩是什麼樣子的。我們只能想象我們變成大猩猩的樣子。”
這個簡單的事實要為數世紀的倫理之爭負責。支持Harambe的積極分子也許認為,為了防止有人失去生命而殺死一頭大猩猩是不公平的,因為我們在認知上有相似之處:大猩猩的思考方式跟我們很像,所以它們應該擁有類似的道德地位。別的積極分子可能認為,正是因為我們在認知的不同所以大猩猩才應該擁有其道德地位:由於我們有先進的理性的力量,所以希望我們要擺脱這場貓吃老鼠的遊戲,成為從小雞到黑猩猩等動物的特殊保護者。(這兩種觀點都支持雜食主義:我們殺死動物因為我們也是動物,或者因為我們的例外主義意味着人類利益高於一切。)這些顯然是對立的信念,標誌着我們對自己與其他也有大腦的存在的關係是同類還是主僕的不確定性。“一個人直到在另一種生物眼中看到自己之前都不會認識自己,”人類學家與自然主義者Loren Eiseley這樣寫道。在面對着相似性和差異性時,我們被迫設定我們這個物種的道德高度。
但到了今天,此類清算也許會遇到糾結。在一個自動化的世界裏,凝視我們自己的那個對方可能根本就不是有機體。它是機器人的機率正在變得越來越大:一種新型的、日益無所不在的獨立思維。傳統上,一系列對Siri的濫用或者對無人車的虐待尚未激起Harambe式的警告。但如果想法類似或者主僕關係是我們的道德標準的話,那有着先進大腦和人類監護權的人工生命為什麼就可以免責呢?除非我們闡明瞭動物對我們的要求,否則的話我們將無法弄清楚我們欠機器人什麼,或者它們欠我們什麼。
子非魚焉知魚之樂
一個簡單的例子也許就可以理清部分頭緒。我們可以來看看魚。魚是否應該得到大衞·赫伯特·勞倫斯(D. H. Lawrence)所謂的人類的“熱情,隱含的道德”?對此許多人都有一個隱含的熱情迴應:沒門,魚片。似乎耶穌就喜歡吃魚;耶穌復活之後就煎過幾條魚吃。週末旅行者當中沒有幾個人會把釣魚視為憤怒和墮落的表現(而且恰恰是相反),吃壽司時點刺身感覺更痛的是他們的錢包而不是他們的靈魂。熱愛一條魚的生命並不容易,部分是因為魚本身似乎不太留戀生命。它們能給我們帶來什麼道德利益呢?
《魚知道什麼:我們水下表親的內心世界》(What a Fish Knows: The Inner Lives of Our Underwater Cousins)文筆優美,是 Jonathan Balcombe 經過詳盡研究之後對魚類道德要求的支持論據,他在書中開門見山,直接就説我們欠它們很多。人道協會負責動物感知的Balcombe這樣寫道:“當一條魚注意到我們時,我們就進入到了另一種生命的意識世界。有證據表明,至少部分魚類是有部分感情的,包括恐懼、緊張、玩性、快樂以及好奇等。” Balcombe對魚之樂的盼望對讀者來説似乎是古怪的,因為他們從海鱸魚的眼裏看不到任何東西(注:這個莊子和惠子曾經有過“子非魚焉知魚之樂”之辯)。但他認為這種冷漠折射的是偏見,因為魚的體驗,並且就潛在意義而言,許多低等生物的體驗,跟我們的相似性其實要比我們所以為的要近得多。
就拿魚的疼痛來説吧。若干研究顯示,就像你無意中碰到炙熱的火爐會猛地縮手一樣,魚也自己的反射性反應,而且就像你會下意識地喊"哎呦!"一樣,它也會有自己的"哎呦"版本。出於這個和其他的原因,Balcombe認為,魚的行為在意圖上要比之前所預測的更加豐富。他對深蝦虎魚的評價很高,這種魚在到處遊的時候會記住周圍的地形,然後在退潮時,它們就會利用這份心理地圖從一個池子跳到另一個池子。豬齒魚擅長利用工具(它們會帶上蛤蚌到處轉,在找到合適的石頭後咬着蛤蜊扭動身體敲擊至粉碎進食裏面的肉),清潔工瀨魚在特定的歸納學習測試中的表現甚至勝過黑猩猩。一些魚甚至特立獨行。我們發現,不是所有的大馬哈魚都逆流而上,產卵,然後死亡。結果表明,有的大馬哈魚可以再游回來,然後再重複這一過程。
我們在這裏稍微挖掘一下魚的心理可能性。一些壓力過大的魚會享受按摩,聚集到物體周圍摩擦自己兩側,直到皮質醇水平降低。成年河豚在沙床不斷繞圈扇出精美的幾何曼陀羅圖案,並且根據自己的品味用貝殼來裝點(注:這個“麥田怪圈”的功能之一是求偶)。Balcombe報道説雌性褐鮭魚會假裝性高潮。也許除了所有的雄性鮭魚以外,沒人知道這是什麼意思。
Balcombe認為,覺得魚一點都不像我們的想法源自偏見:我們能對倉鼠感同身受,因為它會眨眼,爪子能抓住東西,但是既不會眨眼又沒有手指的魚似乎太“另類”了。儘管魚的大腦很小,但就憑這斷定它們很蠢的話,就像有人形象地舉例反證一樣,“氣球因為沒有翅膀所以就不能飛。”當然,Balcombe往另個極端走得有點過了頭,他的書還摻雜了一些怪異的、人格化的奇聞秩事,都是一些令人目瞪口呆的道聽途説。但他的觀點是站得住腳的。如果我們把魚當作我們的認知同類的話,它們應該被包含進我們的道德責任圈內。
爭議發生在邊界點。拍死一隻蚊子算不算不道德呢?如果這種昆蟲不值得予以道德考慮的話,它們缺少的關鍵品質是什麼?康奈爾大學法律教授Sherry F. Colb 和Michael C. Dorf的新書《跳動的心:流產與動物權利(Beating Hearts: Abortion and Animal Rights)》就探究了此類邊界標記的挑戰。作者指出,很古怪的是,動物權利主張者與反墮胎支持者之間幾乎沒有什麼主張重疊的地方。那些主張不要終結神經較為簡單的動物,比如魚的生命,其論據基礎難道不應該跟主張不要墮胎的依據一樣嗎?Colb和Dorf都是提倡墮胎合法的素食主義者(“我們自己的素食主義之旅始於跟我們的狗一起分享生活的經歷”),所以,儘管他們注意到這個悖論,但並不認為這裏面存在雙重標準。
他們提出,上述兩種主張的最大區別在於“知覺”。許多動物擁有知覺,但受精卵和胚胎並沒有。Colb和Dorf對知覺的定義是“具備主觀體驗的能力”,這個定義有點棘手,因為動物的主觀性對我們來説很難確定。有一篇著名的論文叫做《作為一隻蝙蝠是什麼樣的》,作者是哲學家托馬斯.內格爾。他指出,即便人開始會飛,會吃蟲子,並且可通過聲吶繞開障礙物,但也不能擁有一隻蝙蝠的完全體驗,或者這種生物從出生開始形成的古怪的主觀性。Colb和Dorf有時候會掉進這樣的陷阱。他們在書中有一段提出,動物是否感受得到疼痛並不重要,因為“最熾熱的疼痛會導致無法理解疼痛或任何其他東西。”這是對這種體驗的一種非常人性化的解讀。
儘管如此,但動物跟這個世界的交互方式顯然不同於植物以及隨機物體。草房子不會在乎自己是被燒掉還是原封不動。但乾柴堆上的異教徒可不願柴被點着,大概烤叉上的豬也不想。Colb和Dorf稱之為擁有“利益”,他們不是完全滿意的這個説法往往帶有弦外之音——也就是功利主義,這個追求總體最大善的倫理思想派別。其創始人傑瑞米·邊沁(Jeremy Bentham)在他的《論道德與立法原則》中曾把動物作為一個腳註而引起了大家的共鳴:
引用總有一天,其他動物也會獲得只有暴君才會剝奪的那些權利……問題不在於‘它們能推理嗎?’,也不在於‘它們能説話嗎?’,而在於‘它們會感受到痛苦嗎?
哲學家彼得·辛格(Peter Singer)在《動物解放》(1975)中指出,如果動物能感受到痛苦的話,難道我們不應該讓它們的痛苦最小化嗎?這種同類化的方式有一個優點:它既確立了動物的道德主張,又沒有把人類的動機投射到它們身上。但這又引出了另一個問題:拿木棍敲鄰居的腦袋顯然要比毒死一隻老鼠糟糕。可是,如果個體的痛苦最重要的話,我們又何出此言?
Singer的回答應該屬於功利主義:這與生物無關,而是與整個系統有關。殺死鄰居的兇手散播的痛苦要比一隻老鼠的死亡更多。不過我們必須在動物生命和人的生命之間做出選擇的情況是很罕見的,而且讓動物的痛苦最小化往往也很容易做到。我們可以停止把牛羣趕到屠宰場,我們可以烤豆腐而不是雞腿。大多數人被要求淹死一隻小貓時都會產生道德上的痛苦,這説明在某種程度上我們是知道痛苦是有關係的。但糾結的是我們對痛苦的感受特別的不可靠。我們還覺得,比方説像機器人這樣的對象,它們根本就不會受苦。
hitchBOT——搭便車的機器人客死他鄉
去年夏天,一羣加拿大的機器人學家把一個古怪的發明放到了美國的大街上。他們把這個東西叫做hitchBOT(hitch 有搭便車的意思,也是一名投資人的名字),不是因為它是煙癮很大的逆向投資者,喜歡抽尊尼獲加,而是因為程序給它設計的目的就是搭便車。穿着雨靴,“臉部”屏幕露出像素化的、高飛式的微笑,靠着伸出大拇指和應該是討人喜歡的人性化語音提示,hitchBOT本想從麻省Salem旅行到舊金山。此前它的加拿大和歐洲之旅一直都令人鼓舞:機器人總是能到達目的地。在2周的時間裏,hitchBOT巡遊了美國的東北部,一路上説着“你願意跟我説話嗎?……我對人性比較感興趣。”然後它就消失了。2016年8月1日,它被發現躺在費城的一堵磚牆旁,已經支離破碎、身首異處。
羣眾的反應很迅速。一名記者在Twitter説:“我不能撒謊。我到現在還對hitchBOT的死感到震驚。”一名博客則寫道:“hitchBOT被毀是又一個提醒,説明我們的社會還有很長一段路要走。”
人類可以對機器人產生温馨舒適的感受是包括《機器人瓦力》和《人工智能》等在內一個熱門電影流派的主題。其巔峰是《星球大戰》宇宙,一個有趣的機器人和乏味的人類身處其中的煉獄。但是這種情緒也應用到功能領域。美國洛斯阿拉莫斯國家實驗室有一位機器人專家,他曾經開發過一個長相不可愛的長得像蜈蚣的機器人,通過匍匐前進來清理地雷陣,直到它所有的腿都被爆掉。有一次亞利桑那州試運行時,軍方的一名上校命令停止測試,據《華盛頓郵報》説,因為他發現對機器人的暴力很“不人道”。
按照Singer的標準,這是毫無意義的。機器人又不是活的,而且我們確切知道它們不會受苦。既然這樣,為什麼連鐵石心腸的上校都覺得對此類系統富有道德責任呢?一位叫做Kate Darling的研究學者最近聯合MIT、哈佛和耶魯大學進行了一項研究,試圖理解我們跟機器人的關係出了什麼問題。她在一篇論文中提出了三個因素:肉體性(存在於我們的空間而不是屏幕上)、感知到的自主運動(對象可以自己走,就好像有自己的頭腦一樣)以及社會行為(模仿人的行為對機器人進編程)。Darling和她的同事設計了一個實驗,他們會給受試者發放一頭名字叫做Pleos的小圓頂龍機器人,然後指示受試者與之互動。受試者要把它捆起來,然後不斷打它,直到死亡。部分人拒絕了。有的甚至保護Pleos免受其他人的拳頭。一位女性把機器人的電池卸了下來好讓它“不受痛苦”。最後,參與者被勸説“犧牲”一頭哭泣的Pleo,讓其他的圓頂龍免遭厄運。
Darling嘗試對此行為作出解釋,她認為我們反感濫用逼真的機器源自“社會價值觀”。雖然我們頭腦中的理性部分知道Pleo除了電路、引擎和軟件之外別無他物,就像咖啡機一樣,這個機器是可以關掉的——但我們的交感神經衝動卻被騙了,同時因為它上當了,所以打機器人就是培養他們行為上的不端。(這正是HBO的熱門新劇《西部世界》的原則,對先進機器人的濫用就是人類不忠的象徵)。Darling寫道:“有一種擔心認為,虐待像生命體一樣做出反應的東西,會影響到我們與其他個體交互時體驗到的那種同理心感受。”換句話説,折磨機器人跟機器人一點關係都沒有,一切都與我們自身最恐懼的東西有關。
這類擔憂,彷彿流向密西西比的寬闊河流一樣逼近倫理學的一場歷史性的大分歧。一邊是Bentham這樣的人,他們認為結果決定道德(撒謊説同事令人發狂的髮型很好看是OK的,因為實話實説只會讓所有人都不高興。)另一邊是認為道德應該取決於權利和規則的人。(一個有道德的人不應該是過於拘謹的騙子,哪怕是對髮型這樣的事情撒謊)。動物倫理往往青睞第一組:要求人們考慮其行動對生物產生的影響。但像Darling這樣的研究讓我們不禁猜想是不是第二種態度更好一點——考慮權利和義務,而不是考慮後果。
不妨來看看虐待動物罪的合理與不合理之處。紐約州禁止虐待寵物,但是又允許給狐狸下套;禁止電擊“毛皮類(fur-bearing)”動物,比如麝鼠,但是又允許電擊有毛的動物,比如老鼠;禁止給狗刺青,但是牛又可以。就像Darling所説那樣,“我們明顯更願意保護那些更容易認同的動物表明,我們也許更在乎的是自己的情緒狀態而不是什麼客觀的生物標準。”她把目光投向了康德,這位哲學家認為動物倫理是為人服務的。康德在《道德講座》中説:“如果一個人射殺了他的狗……他因此也就損害了自身友好、人道的品質。”“對動物展現出如此殘忍一面的人對人也不會更加心慈手軟。”
這不是(peership)對等道德。它看起來像是某種被動的監護責任,在這種責任中,人類力圖實現其高尚的人性,而動物或者機器人則可受益於這一努力的涓滴效應。Darling認為,這個很適合人、動物以及機器人日益糾纏在一起的時代。我們會指望自己16個月大的小孩能理解為什麼扯貓尾巴是殘忍的,但是追逐Roomba清潔機器人在道德上卻是可以接受的嗎?難道我們不想撫養一個沒有恐嚇任何類生命體(不管其假定的本體論如何)衝動的小孩?對於現在正穿着尿布的一代人來説,跟Siri式的人工智能展開對話是這個世界的自然狀態。我們跟朋友交談,我們跟設備交談,我們寵愛自己的小狗,我們愛撫自己的愛人。在現代生活的洪流裏,康德堅持權利只能在人對人的行為中獲得似乎就太侷限了。
在這裏一位有前途的倫理學家可能會被感動,就像《黃金年代》裏的Gaston Modot一樣,惱怒地踢一隻小狗。把別的個體當作道德同類似乎沒有成功的希望:我們不清楚對等關係的邊界從哪裏開始,而想要尋找這種邊界的努力則會遭遇偏見和誤解的阻擾。但是充當有原則的監護人,把其他生物限制在底層——以及人類是宇宙特殊的主人,負責決定誰生誰死的想法似乎已經過時了。像Peter Singer這樣的邊沁主義者也會陷入到怪異的極端情況之中。如果避免痛苦是目標的話,反對針對整個種族的無痛滅絕幾乎就沒有原則基礎了。
怎麼辦呢?幾年前,哈佛哲學家,康德學者Christine M. Korsgaard開始着手一樁康德式的動物權利案子(以個體自由為原則而不是痛苦個案,像Singer那種)。她的第一個障礙正是康德本人。康德認為,由理性而引發的權利應該能夠騰出一片空間,使得每個人既能按照自己推斷是好的來行事,又不會壓制別人的思想(我的財產權可制止你在我前草坪安裝一個大浴缸,即便你認為那是好的。這使得我可以自由地使用我的草坪,只要我認為是好的,只要不牽涉到大浴缸。)康德指出,動物無法對自己的選擇方式做出推理,所以自由的權利對它們不起作用。如果吮吸花蜜的蜂鳥被要求按照最高的理性標準來行使意志,它也只會從一朵花飛到另一朵花那裏。
然而,Korsgaard提出,把所有事情都往理性選擇去靠是轉移大家的注意力,因為人,哪怕是康德本人,並不僅僅是理性的存在。他們還會衝動行事。她認為,行動的基本動機產生於能體驗到一個東西是好還是壞的能力,這個特質是所有的動物都具備的。如果我們作為人就像對我們的草坪提出權利主張一樣對狗的思想和身體提出權利主張,那我們行使的就將是任意的權力,而任意的權力正是康德尋求避免的。所以,根據他的原則,動物必須對自己的身體擁有自由,也即權利。
這一觀點不需要動物也要權衡那些抽象的特質,比如智能、意識或者感覺能力等。嚴格地説,這甚至並不要求我們永遠都不能吃荷包蛋或者野味。它把啟蒙的價值——主張有選擇的權利,主張個體自由而不是暴政——延伸到了我們所監護的生物身上。它呼籲:讓那些小雞到處跑吧!給大馬哈魚一個機會,把它放歸到寬闊的海洋,讓它用智慧衝開抓捕的大網,而不是在網箱裏終其一生。我們無法確定這些小雞和魚是否在意,但對我們人類來説,這些標準是避免殘暴行為的關鍵。
機器人似乎並不在此類人道主義的範圍之內,因為它們缺乏身體自由(你的無人車不能自行決定開車到海邊)。但躍進到機器學習之後,由於這種人工智能可以編程為自我學習(注:還是要分為有監督和無監督學習,前者仍然需要人來做準備工作),情況開始朝着這個前提靠近。機器人應不應該被賦予權利呢?《泰晤士報》技術記者John Markoff在《與機器人共舞》中提出了這個問題。之所以提出這個問題,部分因為機器人的思想跟動物不一樣,是人類想象的產物,它們有可能在我們的遊戲當中向我們發起挑戰並擊敗我們。Markoff闡述了一個大家的普遍恐懼,即擔心機器人會把中產階級壓得透不過氣:“技術不會成為經濟增長的源泉,相反,卻會給所有以技能為基礎、需要不同類型的“認知”勞動執行能力的程式化工作造成風險。”需要擔心的不僅僅是機器人搶了裝配線上的工作,或者換句話説,你還得擔心它們看檢查表或者做經紀人比你還專業。沒有什麼牆能阻擋對美國崗位的大舉入侵。機器人是美國人的獨創性結出的碩果,基本上它們正在學習我們知道的一切東西。
這樣的未來敦促我們現在就得梳理好我們的道德目標。機器人暴動是不大可能發生的,忠實的人類反對邪惡機器部落的戰爭倒是更有可能。其實可能這已經以某種方式開始了:通過與廉價的賦權智能的共生,我們對這些智能敞開懷抱,讓它們進入了我們的日常生活。手機現在增強了我們的記憶,集成聊天機器人讓我們省下了等待客服接聽的漫長時間,app讓我們可以在地球上到處追逐Pokémon。賽博格(cyborg)體驗就在這裏,它傷害我們的手段不是粗暴,而是讓我們注意到自身的限制。
無人車編程有一個經典問題,即考慮如何避免事故。如果只能在打方向盤撞上多達10人的一羣路人和徑直撞向一堵牆撞死車主之間做出選擇的話,無人車應該做何選擇?這個難題不僅僅是道德上的,也是商業上的(你會不會買一輛在特定情況下根據程序會殺死你的車?),這還是我們作為人類所做出的一個決定的真實寫照,這是一個嚴酷的決定,但我們往往會忽視。AI的恐怖優勢其實不是HAL9000,那台不願被關掉的流氓機器,而是計算道德的車,軍事無人機:那些能按照我們想法執行,並因此把我們的道德行為機械化的機器人。
對此,現在人文學科一個流行的解決之道是“後人文主義”。後人文主義尋求迴避這樣一個前提,即人性是具有魔力的,這個東西流行於啟蒙時代,但是基於現在的知識這是有疑問的。一些後人文主義者,比如N. Katherine Hayles,已經求助於電子人(無論是可穿戴技術這樣的主流形態還是極端形態)來挑戰身心不可分離的想法。其他的人,比如Cary Wolfe則指出,假體無論附加到什麼地方也應該屬於動物生命的一部分。在一個人文主義或者人道主義如此盛行的地方,後人文主義不可避免地是要走入死路的。作為人,我們通過據為自有來實現完整的自我,就像大部分動物和機器人一樣,我們通過具有周圍世界的習性,通過運用工具而走向成熟。那個項目的風險是真實的。在動物園出生的Harambe,居住在人類創造的世界裏,所以它死了。我們最好的特徵是仍然被這件事困擾,我們最糟糕的特徵是我們敬畏幽靈甚於生者。
資料來源:36Kr