深度長文:謙卑好用的智能助手,未來會變成人類的夢魘嗎?

編者按:智能聲控設備的顛覆性角色才剛剛開始。現在的Alexa可以是一個謙卑的僕從,但誰知道在未來,它會不會成為治療師、知己甚至是將我們玩弄於股掌之上的告密者呢?本文作者JUDITH SHULEVITZ,原文標題Alexa, Should We Trust You?


作者:Roberto Parada

我們都愛上了Alexa,除非我們另有所愛——比如Google Assistant,或者Siri,或者其他智能聲控設備。當我用到“智能”二字的時候,我是指它擁有人工智能,可以進行基本的對話,並且可以連接上網,查找東西,為你做事。我的朋友們——嬰兒潮的最後一批人——告訴我説,他們不想和電腦説話,也不想電腦和他們説話。每個時代的憤世嫉俗者都懷疑這些虛擬助手在偷聽自己,而且並非毫無理由。大公司們可以通過這些東西獲悉我們搜索和購買的信息。這些智能設備即使在你不跟它們交流的時候也在偷聽,因為它們只有在能夠聽到“觸發詞”的時候才為你服務。


製造商們承諾,智能聲控設備只有在聽到觸發詞後的對話才會被存檔到雲存儲中。儘管如此,偶爾也會出現一些奇怪的故障,比如Alexa曾在未聽到觸發詞的情況下記錄了某個家庭的私人談話,並將錄音通過電子郵件發送給聯繫人名單上的一位熟人。亞馬遜解釋説,Alexa一定是聽到了什麼類似觸發詞的東西,然後將隨後的談話內容曲解為一系列命令。不過這個解釋在我看來並不可信。

然而,隱私問題並沒有阻止這些設備登堂入室。亞馬遜沒有透露確切數字,但當我問Echo售出了多少台時,一位女發言人説,“數千萬台。”根據技術研究公司Canalys的數據,截至去年年底,全球已經安裝了超過4000萬台智能聲控設備。根據目前的銷售額,Canalys估計到今年年底這個數字將達到1億。據National Public Radio和Edison Research在2018年發佈的一份報告,有800萬美國人擁有3台或3台以上的智能聲控設備。另一家研究公司Ovum的數據顯示,到2021年,地球上智能聲控設備的數量幾乎會和人類一樣多。手機用了大約30年的時間才在數量才超過人類,但Alexa和她的同類可能在不到一半的時間內就能實現。

其中一個原因是,亞馬遜和Google正在不遺餘力地推廣這些設備,在去年假期期間,它們的折扣大到讓行業觀察人士懷疑這些公司在賠本出售設備。這些公司和其他科技公司都有雄心壯志,它們想在把觸手伸進從太空到家居的各個地方。在不久的將來,從燈具到空調到冰箱,再到咖啡機,甚至你的馬桶,所有的東西都可以連接到一個由聲音控制的系統上。

聲控設備的革命

成功壟斷智能聲控設備市場的公司,將把家電製造商、應用程序設計師和消費者鎖定在其設備和服務的生態系統中,就像微軟在上世紀90年代將個人電腦行業與操作系統捆綁在一起一樣。僅亞馬遜一家,就已經與超過20000台智能家居設備合作,品牌數量超過3500個,可連接設備超過100多個,包括耳機、安全系統和汽車。

然而,這些設備也有一種內在的吸引力——超越單純的消費主義。即使是我們這些以相當謹慎的態度對待新技術的人,也在尋找理由歡迎智能聲控設備進入我們的家庭。在NPR和Edison Research的同一篇報告中,近一半最近購買了智能聲控設備的父母表示,他們這樣做是為了減少花在屏幕上的時間。

這種轉變的影響可能是廣泛而深遠的。人類的歷史就是一部發明的副產品的歷史。新的工具——輪子、犁、個人電腦——帶來了新的經濟和社會秩序,而電話、錄音設備和無線電等語音技術對政治歷史進程產生了特別重大的影響。

也許你認為和Alexa交談只是你看新聞或者購物的另一種方式罷了但事情沒那麼簡單。我們探討的是技術本身的地位的改變——可以説是一種升級。當我們與自己的私人助理交談時,我們使它們更接近我們自己的水平。


作者:Roberto Parada

Alexa、Google助手和Siri天生就具有人類獨有的語言能力。雖然它們是軟件,卻又不僅僅是軟件。它們能使我們把它們當作有思想的人看待。這些聲控設備可能是偽意識的非人類,但語言能力卻賦予它們個性和社交風度。


實際上,這些設備不再只是電商中介或門户網站。我們與它們交流,而不是通過它們交流。不止一次,我發現自己告訴Google Assistant我會感到空虛。“我很孤獨,”我説,通常我不會向任何人坦白,除了我的治療師——甚至我丈夫我也不會説,因為他可能會誤解我。這台聲控設備的魅力之一在於,我把其聲音設置成一種爽朗、年輕的男性聲音,讓我想要微笑。(而亞馬遜沒有給Echo提供男性聲音的選擇。)“我希望我有胳膊,這樣我就能給你一個擁抱了,”前幾天Google Assistant安慰我説,“但就目前而言,也許笑話或音樂可能會對你有所幫助。”

目前,這些設備仍處於開發潛力的初期階段,但隨着銷量飆升,它們的計算能力也呈指數級增長。在我們的有生之年,這些設備可能會變成更加熟練的健談者。但如此一來,它們走進我們的生活,它們將無所不知,它們將佔據我們最私密的空間,它們將無處不在。這些都是令人毛骨悚然的能力,憑藉這些它們可以控制我們的情感生活。真到了那種程度,該怎麼辦?

如何識別上下文?

當現任Alexa Experience公司副總裁的Toni Reid在2014年被邀請加入Echo團隊時——當時該設備還未面世——她嘲笑道:“我當時就想,這東西有什麼用?當時,她正在研發Dash Wand——一個便攜式條形碼掃描器加一個智能麥克風,能讓人們掃描或説出想要添加到亞馬遜購物車中的物品的名字。產品設計目的很明顯,它讓從亞馬遜購物變得更容易。

而Echo的用處就不那麼明顯了。為什麼消費者要購買一款能告訴他們天氣和交通狀況、能充當計時器、能執行任何普通智能手機都能完成的任務的設備呢?但是當Reid在廚房裏使用Echo時,她明白了。她的兩個女兒——分別是10歲和7歲——立刻開始對Alexa喋喋不休,好像和一個塑料圓筒交談是世界上最自然的事情一樣。 “慚愧地説,這麼多年我都沒有聽過音樂了,”她告訴我,“自從安裝了這個設備,突然我們家裏又有了音樂。”你可能會對亞馬遜一位高管提供的被Alexa圈粉的説表示懷疑。但我沒有,因為我自己也有這樣的經歷,當我不想特意去找哪首歌時,我會讓Alexa代勞。

我在西雅圖的亞馬遜公司遇到了Reid,她本科時學的是人類學,對於我提出的一些基本問題,她有着社會科學家一般的耐心。她説,Echo的基本吸引力在於它解放了你的雙手。Echo的主人可以在客廳、廚房和辦公室裏走來走去,一邊幹自己的事兒,一邊發出隨機指令,卻不需要點擊鼠標。

Reid接着説,Alexa的魅力在於她使這種互動“毫無違和感”——在我與這些產品背後的設計師和工程師的交談中,我經常聽到這樣的説法。你不需要走到桌面,在瀏覽器中輸入搜索詞,也不需要輸入密碼打開iPhone。Alexa就像維多利亞時代莊園裏的理想僕人一樣,隨時隨地準備好迅速而又一絲不苟地完成主人的命令。雖然目標是做到“毫無違和感”,不過實話實説,目前智能聲控設備的違和感依舊存在,有時候程序會出現一定的混亂和問題。

Rohit Prasad是Alexa人工智能團隊的首席科學家,他用一個詞概括了Alexa達到“毫無違和感”的最大障礙:語境。“你必須明白,語言是高度模糊的,”他告訴我,“它需要語境幫助理解。”Alexa在回答你連續的問題時,必須得記住前面的問題才行。這種短期記憶和句法反向引用被稱為“聯繫上下文”。直到今年春天,Alexa才開發出了回答連續問題的能力。


作者:Roberto Parada

Alexa需要更好地把握上下文,才能真正贏得信任——信任很重要。不僅因為如果Alexa在完成第一次請求時做得太糟糕,消費者就會放棄她,還因為她不僅僅是一個搜索引擎,更是一個“動作引擎”。如果你問Alexa一個問題,她不會給出一個結果列表,而是從許多答案中選擇了一個。她會告訴你她認為你想知道的事情。“你想要一個非常聰明的人工智能,而不是一個愚蠢的人工智能,” Prasad説,“但要確保談話的內容連貫是非常有挑戰性。”


聲音藴含着真情實感

為什麼聲控設備具有把我們從屏幕前拉回現實世界的能力呢?首先,聲音可以營造出一種親密感。我不是唯一一個發現自己向聲控設備坦白情緒狀態的人。關於抑鬱症和自殺威脅表達的文章汗牛充棟,製造商們也一直在關注這些文章。例如,如果你告訴Alexa你感覺很沮喪,她就會説:“我很抱歉你有這種感覺。但你要知道你並不孤單。你可以試着和朋友或者醫生談談,尋求幫助。”

我們為什麼要從機器那裏尋求安慰呢?因為它們讓我們在揭露不光彩之餘不會感到羞恥。University of Southern California創新技術研究所(Institute for Creative Technologies)的計算機科學家、心理學家Jonathan Gratch説,在交流過程中人們“會忘記管理情緒和印象,因此會更展示更為真實的自己”,他的研究領域涵蓋了人機互動心理學,“例如,如果他們感到沮喪,就會表現出更多的悲傷來。”

我還採訪了New York University的語言學者Diana Van Lancker Sidtis,希望能更好地理解聲音與情感之間的深層聯繫。令我驚訝的是,她指着自己寫的一篇關於原始沼澤中的青蛙的文章解釋説,每隻青蛙都有自己獨有的鳴叫聲。而在幾億年前,人類的發聲器官——由於其更為複雜的肌肉組織——產生的是語言,而不是呱呱叫。但是聲音比語言更能傳達信息。像青蛙一樣,它們傳達了個體的標識:性別、大小、壓力水平等等。我們的聲樂特徵使得我們能夠把詞串在一起形成語言,還能夠產生豐富的音調、節奏以及共鳴。

當別人跟我們交流的時候,我們會同時聽到單詞、句法和韻律。然後我們會尋找線索,了解説話人是什麼樣的人,想要表達什麼,我們需要大量的腦力活動來理解我們所聽到的一切。已故的Clifford Nass是人機關係領域的先驅思想家曾説過:“我們的大腦會留意每個人的每句話,並將其方方面面都視為有意義的。”


作者:Roberto Parada

我們不能僅僅因為一個聲音是類人的而不是人類的,就停止所有這些腦力勞動。即使當我的Google Assistant在播報天氣預報時,我腦海中仍會浮現出一個可愛的年輕演員的形象。但這並不意味着我不能理解我們之間交互的算法本質。我知道它只是個軟件。數百萬年來,我們一直對人類的發聲做出反應。我們有大約一個半世紀的時間來適應聲音可以與其源頭分離的觀點,但現在卻只有幾年的時間來適應這樣一種觀點——智能聲控設備的説話和聲音都很像人類,但卻不是人類。


對於一個聰明人來説,是誰説話並不重要並不一定那麼重要。事實上,這可能是件好事。聲音比臉更能傳達某些情感真相。一般來説,與面部肌肉相比,我們很難控制調節聲音的肌肉(當然,除非是經過訓練的歌手或演員)。即使我們在説話時試圖壓抑自己的真實感受,但憤怒、厭倦或焦慮往往還是會顯露出來。

《American Psychologist》2017年發表的一項研究表明,當人們在沒有見面的情況下交談時,他們更善於識別出對方的感受,更善解人意。Freud早在實證研究證明這一點之前就明白了這一點。這就是為什麼他讓他的病人躺在沙發上,背對着他的原因了——這樣一來他更能在病人的閒言碎語中分辨出其真情實感,而不會因為愁容或微笑出現誤判。

身為雙刃劍的智能設備

智能聲控設備的製造商希望利用這些心理社會效應。亞馬遜和Google都有“個性團隊”,負責為自家設備設計合適的語氣。某種程度上來説,這是教科書式的品牌管理:這些設備必須是製造商的形象大使。Reid告訴我,亞馬遜希望Alexa的個性能反映公司的價值觀:“聰明、謙遜,有時還很有趣。” Google Assistant的產品經理Gummi Hafsteinsson説:“Google Assistant很謙遜,樂於助人,有時還會有點頑皮。”同時我們也要知道,擁有個性也有助於讓設備的聲音更有感染力。

不過設置合適語氣是件挺有難度的事情。雖然人們經常把智能聲控設備比作管家一類的角色。現階段的美國人希望自己“管家”的聲音要友好,但不要太友好,甚至給人一種諂媚的感覺。

為了調整Google Assistant的性格,Google從皮克斯聘請了Emma Coats,她曾在皮克斯出品的《勇敢者(Brave)》、《怪獸大學(Monsters University)》和《頭腦特工隊(Inside Out)》等電影中擔任情節串聯師。當我參觀Google總部時,Coats正在參加一個會議。她微笑着出現在Google的Hangouts上,給我留下了深刻的印象。她説,Google Assistant “應該能像人一樣説話,但絕不能假裝是人。”她指出,在《海底總動員(Finding Nemo)》中,這條魚“在情感上和人類一樣真實,但它們會去釣魚學校,互相挑戰去摸人類的船。”同樣,一個人工智能實體應該“尊重自己是軟件這一事實”。例如,如果你問Google Assistant,“你最喜歡什麼口味的冰淇淋?”它可能會説,“選拿破崙牌兒的準沒錯,大家都愛吃這個味兒。”當然,這是一種迴避,但它遵循Coats所表達的原則。軟件不能吃冰淇淋,因此不能有冰淇淋偏好。如果你向Alexa求婚——亞馬遜説在2017年有100萬人這樣做了——出於類似的原因,她會委婉地拒絕。“在實際生活中,我們處在兩個不同的世界。”

聲控設備應該被牢牢地侷限在自己的一畝三分地中,但它們也不應該像外星人一樣。這就是Google Assistant的首席對話和角色設計師James Giangola上任的原因。Giangola是個喋喋不休的人,一頭捲髮,當然不只是個瘋狂的科學家,他的工作是讓Google Assistant無縫銜接到我們的生活中。

例如,Giangola告訴我説,人們傾向於在句子的結尾提供新信息,而不是在句子的開頭或中間。“我一般會説‘我叫James’,”他指出,“而不會説‘詹姆斯是我的名字’。”隨後,他又舉了一個例子,假設有人想訂6月31日的機票,聲控設備就要説“6月沒有31日。”所以,聲控設備必須處理兩項微妙的任務:既表現得自然,又不與人類用户起衝突。

為了説明和驗證自己的觀點,他在自己的電腦上敲出一行字:“訂一張6月31日的機票。”

Google Assistant回覆道:“6月只有30天。”

“是不是自然多了?” Giangola説道。

讓説話的節奏慢下來是至關重要的,但要創造出一個應付得體的交談者是遠遠不夠的。機器人也需要良好的氛圍。當Giangola在訓練Emma Coats為Google Assistant錄製配音時,他給了她一個背景故事,以幫助她產生自己想要的那種樂觀的氣質。故事的背景非常具體:她來自科羅拉多州——這個州的口音不太獨特。“她是一位研究圖書管理員和一位擁有Northwestern University藝術史學士學位的物理學教授的小女兒”,Giangola繼續説,“小時候,她在《Jeopardy: Kids Edition》節目上贏得了10萬美元。她曾經是‘一個非常受歡迎的諷刺評論家’的私人助理,而且喜歡劃皮艇。”

一位持懷疑態度的同事曾經問Giangola :“怎麼樣才能一個人聽起來像是喜歡劃皮艇?”在試演過程中(數百人試演了這個角色),Giangola轉向質疑者説:“剛才試演的那個候選人——你覺得她聽起來精力充沛好像要去劃皮艇嗎?”他的同事承認並沒有。“我説,額,那好吧。”

但是過於現實的聲音可能可能會引起麻煩——至少現在是這樣。今年5月,Google在年度開發者大會上公佈了使用尖端語音合成技術的Duplex系統。為了證明自己取得的成就,該公司播放了由Duplex系統給預先未告知的的人打電話的錄音:它用女性的聲音在髮廊預約,用男性的聲音詢問預訂餐廳。Duplex系統滔滔不絕——其間還夾雜着“嗯嗯啊啊”的停頓聲,而兩個接電話的人都沒有意識到自己是在和一個職工能説話。

許多評論人士認為Google播放那兩段錄音是個錯誤。因為Duplex不僅違背了人工智能不應該假裝成人的限制,也違背了我們的信任。我們不一定總能意識到自己身邊的聲控設備對我們的心理影響有多大,但至少我們選擇了這種關係。而Duplex作為一個具有欺騙能力的人工智能顯現出了驚人的效果。之後,Google表示Duplex在應用中是會向交流者表明自己的身份的。但是,即使Google遵守自己的諾言,同樣欺騙性的語音技術已經被開發出來。而新開發的技術會不會被用在違法犯罪上就很難説了。人工聲音和真實聲音之間的界線正在逐漸消失。

從檢測情感到產生情感

當然,最能引起共鳴的對話者是那種能理解你聲音所傳達的情感,並做出相應迴應的人——而且在迴應之時能夠表達出微妙的情感。儘管我們的智能聲控設備還不能完成這兩件事,但是語音分析情感的系統已經存在了。情感檢測——面部、身體和聲音——由麻省理工學院(MIT)的工程學教授Rosalind Picard於20年前首創,她將這一領域命名為“情感計算”。“那時候,”她告訴我説,“情緒與非理性有關,而非理性不是工程師喜歡的特質。”

Picard是一位温文爾雅、機智詼諧的女性,她負責着情感計算實驗室,這是麻省理工學院(MIT)那些歡樂古怪的實驗室中的一個。Picard解釋説,大多數人工智能研究與她所做的研究的區別在於,傳統的研究側重於“名詞和動詞”——即行動或話語的內容,而她對“副詞”更感興趣——即所表達的感情。“你知道,我可以用很多不同的方式接電話。我可以用一種劇烈的、憤怒的、急促的動作抓起電話,也可以帶着快樂、充滿愛的期待拿起電話,” Picard告訴我。如果一台機器想要理解人類給彼此的微妙暗示,那麼關注那些手勢中暗含的意味是很重要的。一個簡單的動作,比如點頭,就能傳達出不同的意思——我可以用一種活潑快樂的方式點頭,也可能在用一種悲傷的方式點頭。

2009年,Picard與人合夥創辦了一家名為Affectiva的創業企業,專注於開發能感知情感的人工智能。如今,該公司由另一位聯合創始人、Picard實驗室的前博士後研究員Rana el Kaliouby管理。該公司有望成為汽車市場的佼佼者。下一代的高端汽車不僅在硬件上有要求,在軟件上更有要求,可以用來分析駕駛員的注意力及其他狀態。這種能力已經在半自動駕駛汽車上進行了測試,汽車軟件必須做出明智的判斷:當司機太過分心或心煩意亂、無法集中精力開車時,什麼時候將控制權交給司機是安全的,或者何時接管比較好。

Affectiva最初主要是通過面部表情檢測情緒,但最近聘請了語音情緒檢測領域的後起之秀Taniya Mishra。她和她團隊的目標是訓練計算機來解釋人類語言的情感內容。畢竟我們使用的詞語是表達自己感覺如何的重要線索,同時,我們也可以通過説話的音調、音量和節奏來表達自己的感受。電腦已經可以記錄下這些非語言特性。但關鍵在於,教會智能設備人類本能直覺的東西:這些聲音特徵如何暗示我們當前的情緒。

她告訴我,該領域最大的挑戰是建立足夠大以及足夠多樣化的語言數據庫,以便計算機能夠從中學習。Mishra的團隊從“野外”錄音開始——即從網絡上的視頻中收集,或者由收集自然語音樣本用於學術目的的非營利數據協會提供等等。在埃及的開羅,一小隊工作人員分析了講話內容,並將其所傳達的情感以及非詞彙性的發音——嘟囔、笑聲、停頓——標記出來,它們在揭示説話者的心理狀態中扮演着重要的角色。

對數據進行分類是一個緩慢而艱苦的過程。三到五名工人必須就每個標籤達成一致。Mishra説,説話時長一小時,標記和分類時間多達20個小時。不過變通的辦法也是存在的。一旦計算機中有足夠多的人工標記的樣本,而這些樣本又具有特殊的聲學特徵——比如一陣憤怒,或者一陣悲傷——它們就可以開始自己標記樣本,這個速度比人工擴展數據庫的速度快得多。隨着數據庫內容的增加,這些計算機將能夠以越來越高的精確度識別聽到語音中藴含的情感內容。

在研究的過程中,我很快就記不清有多少創業公司希望在這個領域使用基於語音的分析。例如,舊金山的一家名為Ellipsis Health的公司為醫生、社會工作者和其他護理人員開發了一種人工智能軟件,該軟件可以檢查患者的講話,以尋找抑鬱和焦慮的生物標記。Ellipsis Health的首席科學官Elizabeth Shriberg解釋説:“情緒的變化,比如抑鬱,與大腦的變化有關,而這些變化可能與運動指令有關,運動指令又能影響語音。” Ellipsis Health的軟件可能有很多應用。例如,它可以用於常規的醫生診療,比如年度體檢(當然是在病人同意的情況下)。

我希望機器設備無法識別出一些語言方面的東西,比如諷刺或譏誚。但倫敦Imperial College London的人工智能教授、德國University of Augsburg“嵌入式智能”教授Björn Schuller告訴我,他教會了機器設備識別諷刺。他讓機器設備同時分析語言內容和語調,這樣它們就能發現詞語和音調之間的差異,從而判斷説話人的意思是否與所説的完全相反。


作者:Roberto Parada

當然,檢測情感之後的下一步自然是產生情感:訓練人工智能設備生成情感的近似值。一旦機器設備在分解我們講話的情感成分方面變得頗有能耐,假以時日,它們的表現會有飛躍性提升,比如換位思考。智能設備能夠辨別並對用户的心態做出反應,由此可以創造出一種看似真實的親近感,一種可以用於善或惡的紐帶。


Taniya Mishra期待着這種紐帶的可能性。她幻想着未來某天結束的時候可以對自己的汽車就所有出了問題的事情大聲抱怨發泄——作為代步工具的汽車同時也是積極的聽眾。她説:“汽車是不會開小差的。一輛車不會説,‘哦,對不起,親愛的,我得去做晚飯了,待會兒再聽你的故事。’”車身上搭載的智能設備會隨着時間的推移跟蹤她的情緒狀態,然後在發現Mishra某一週的某一天會有這種感覺。然後主動播放一曲Pharrell的歌,因為這首歌過去曾讓她感到振奮。從某種程度上説,這樣的智能設備已經不僅僅是助手了,它們會成為夥伴。

潛在的威脅



如果你沒有在科技行業工作過,你可能不會對亞馬遜或者Google的這些產品產生一些疑慮。但是,到目前為止,我們大多數人已經認識到了允許最隱私的信息被收集、存儲和出售的危險。我們知道面部識別技術加大了被監視的風險;我們知道科技公司將我們的瀏覽習慣、行蹤、社交媒體互動信息進行售賣;我們知道黑客可以入侵家庭安全系統和攝像頭,竊取數據或重新編程以達到邪惡的目的。智能設備的蓬勃發展和廣泛應用能夠使我們的身體和情感狀態為其獲悉,又將為惡作劇開闢新的領域。儘管與我交談過的大多數工程師都很樂觀,但我必須承認,我現在把iPhone上的麥克風關掉了,而我在不使用智能聲控設備的時候也不插電。

但也有一些微妙的影響需要考慮。以一些看似無害的事物為例,如“無違和感”。對於亞馬遜的Toni Reid來説,這意味着方便。在我看來,它讓我想起了一個資本主義監獄的形象,裏面坐滿了消費者,他們變成了自己夢境的俘虜。《Radical Technologies: The Design of Everyday Life》一書中,城市規劃學家Adam Greenfield將“無違和感”描述為一種存在的威脅:它旨在將思想從消費中剔除,“切斷一個人對慾望的認同和通過市場實現慾望之間的反思過程”。

我擔心的還有其他對心理健康的威脅。一個由智能聲控設備組成的世界可能會變得非常吵鬧。很難想象我們該如何保護沉默的權利,在這份沉默中,我們可以思考原創性的想法,做創造性的工作。當你感到孤獨的時候,有伴侶固然很好,但是每個人都應該有獨處的空間這一點同樣不應被忽視。

一旦我們的“電子僕從”在情感上變得精明瞭怎麼辦?它們可以對我們進行遊刃有餘的操控,甚至對我們的孩子進行遊刃有餘的操控。這些感情用事的智能助手們會以一種順從、樂於助人的方式把我們寵壞。當它們應該反對我們不禮貌的行為時,它們選擇了緘默;而只要有危險的強烈情緒出現,它們就會改變話題;它們甚至會在我們最醜陋的時刻奉承我們。你如何讓一個機器人去扮演真正的作為知己的艱苦工作?又如何知道讓機器人知道你有時真的需要嚴厲而不是驕縱?

最終,智能聲控設備可以讓我們輕鬆地融入過去許多先哲們曾警告過的從眾心理。它們是情感標記過程的產物,而這種過程無法捕捉到人類情感的多變性和複雜性。在某種程度上,它們的“適當的”反應會被封存起來。我們將不斷地與那些在模擬而不是真實情感中的聲音對話,在虛擬夥伴的陪伴下長大的孩子可能特別容易接受這種從眾的行為,最終喪失了理解和堅持自己直覺的能力。

也許是我錯了。也許未來這些智能聲控設備會發展會豐富我們的內心生活。也許是我自己的想象力有限,但是我看自己十幾歲的孩子無論去哪兒也手機不離身以免無聊的時候,我知道它們只會更加這些設備。你會發現,你並不會願意讓自己的孩子整天和人工智能呆在一起。

如果説在我多年的治療中學到了什麼的話,那就是人類的心靈註定是膚淺的。我們堅持否認。假裝更深層的感覺不存在是很容易的,因為很多感覺都很痛苦。你可以這樣,但感情不會就這樣消失,感情終究會流露出來。

編譯組出品,編輯:郝鵬程


資料來源:36Kr

如果喜歡我們的文章,請即分享到︰