Facebook 説,“意識囚禁” 錯在用户


互聯網的發展信息的爆發,會不會加速“迴音室”(echo chamber)效應?在這個時代,我們每天都會獲得很多信息,而信息過濾機制,具體地説是那些看不見的算法,讓我們只跟政見相同的人交朋友,只看到我們想看到的東西,只聽到自己認同的觀點,似乎這個世界就是我們想得那樣,不斷重複之後,那些觀點不斷加深,最終變成一個只能聽到自己聲音的“密室”。這就是迴音室效應(echo chamber effect)。可怕的是,像FacebookGoogle這樣的巨頭,它們一直在努力改進算法,讓我們深陷其中。

而今天發表在《科學》雜誌上一篇名為《Exposure to ideologically diverse news and opinion on Facebook(Facebook的消息和觀點呈現意識形態多樣化)》的論文則得出了不同的觀點。在這篇論文中,Facebook數據科學家們首次嘗試量化社交網絡的信息流(News Feed)羣分用户的程度。根據該論文的研究結果,迴音室效應的直接原因並非Facebook的算法,而是用户本身。

在過去6個月的時間裏,Facebook的研究人員回顧了1010萬個美國的匿名賬户,收集這些用户的網友信息和反應意識形態偏好的狀態。結果發現,這些人不會總是處於觀點相同的環境中,而是大部分時間出現在觀點不同的地方。研究人員表示,Facebook的算法讓自由派有8%的時間存在於單一的觀點中,而保守派則是5%的時間。這説明在大部分時間裏,Facebook沒有讓用户侷限接受同類的信息,而是多元化的信息。

Facebook的算法會通過用户的個人喜好決定News Feed信息流的鏈接,而該研究發現,信息的接受不完全決定於算法,還有很大一部分原因是用户本身是否點擊。這個的意思是,算法只是決定信息的呈現,是否接受,還是由用户自身決定。

以上研究的結果,換句話來説就是,Facebook的算法阻礙用户接受多元化的觀點的程度遠遠比不上用户本身。就是説,用户應該為只有單一意識形態而且“活在自己的世界”負責。

對此,有批評人士指出,這份研究論文有嚴重的邏輯缺陷。首先是Facebook的算法已經過濾了一些消息,用户看到的是Facebook自以為用户喜歡的,而後的不斷重複操作更是加深了這種“自以為是”和“單一觀點”。而且還有一些訂閲功能,這兩方因素不斷加強“錯誤”。在這樣的輪迴中,被算法過濾的信息、用户不去點擊某個鏈接查看某些消息,並不等於用户不接受,不認同。

需要提出的是,在Facebook的這次研究中,用户的樣本選擇有偏差,侷限於把定義自己為自由派或者保守派的用户。而且研究樣本量僅佔14億用户一小部分。

事實上,這不是Facebook第一次進行用户研究了。早前,該公司還進行了一項關於用户情緒與Facebook信息的關係,因為有觀點認為Facebook在操縱用户的情緒。如果這一次Facebook的研究數據是正確的,那麼,形成迴音室的真正原因是我們本身。


資料來源:雷鋒網
作者/編輯:橙太白

如果喜歡我們的文章,請即分享到︰

標籤: Facebook