Google 為了追趕 ChatGPT 降低道德底線,還能「不作惡」嗎?

「Don’t Be Evil(不作惡)」這句口號,在 2018 年之前一直是 Google 的座右銘和行為準則。

▲  圖片來自:substack

這指的是 Google 在做事時要遵循道德和法律,不做有害社會和用户的事情。

但到了 2018 年,這個話術被修改為「Do the right thing(做正確的事情)」。

Google 的這個變化,被許多人認為它已經違背初心。

▲ 圖片來自:vox

並在後續的一些商業行為中,Google 也沒有保持技術的中立性,反而更偏向於商業獲利,收集用户隱私,並利用一些數據來保證自己業務的擴張。

之所以提 Google 的這句經典口號,是因為當下的 AIGC 出現的突然爆發,與此前互聯網的爆發節點有些異曲同工。


現任 Google CEO Sundar Pichai 接受 CBS《60 分鐘》節目採訪時,對於當下的 AI,又提到了「Dont Be Evil」。

並且也表示當下 Google 的 Bard 之所以顯得有點笨拙,實則是因為沒有公佈 Bard 的高級版本。
「希望能夠給社會更多的時間適應 AI,和給公司更多的時間開發安全圍欄。」


簡單來説,Pichai 認為 Google 的 AI 實力並不比 OpenAI 差,且是出於社會責任,而暫時將 AI 技術封印了起來。

但,無論是從彭博、the Verge、金融時報各方面的報道來看,Google 內部卻對 Bard,以及 Google 當下對 AI 技術的開發和監管,卻有着截然不同的聲音。

為了抗衡 ChatGPT,倫理道德可以先放一邊

大概在 2011 年,Google 就創立了 Google Brain 項目,着手於深度學習領域,也意味着 Google 開始涉足 AI。

從此往後,Google 幾乎每年都在 AI 領域取得一些小成果和達成小目標。

從 AlphaGo 下棋贏了世界冠軍李世石,到發佈 TensorFlow 開源框架,再到機器學習芯片 TPU 的發佈,和近期 BERT、LaMDA 等語言模型。

Google 在 AI 領域可謂是輕車熟路的老手,在研究 AI 的過程中,其內部也有了較為完善的風險團隊、技術團隊等等,可謂兵強馬壯。


當然,也有點不可一世。

每年 Google 開發者大會的內容,也開始轉向 AI,向外界展示 Google 在 AI 領域的深厚實力。

外界也普遍認為,Google 會率先引領 AI 行業變革。


直到 ChatGPT,準確的説是 GPT-3 的橫空出世,以及後續 GPT-4 的出現,Midjourney V5 的火熱。

還沒等 Google 反應過來,微軟就抓住機會,與 OpenAI 合作,將 ChatGPT 運用到了新 bing 當中,引發了一次「搜索」變革。

當 Google 回過神,連夜推出了 Bard,剛一上線就鬧了烏龍,出現了不少事實性錯誤,並且至今只支持英語。


相對於 ChatGPT、新 bing 來説,遜色太多。

倉促推出 Bard 的結局,就是引發信任危機,股價大跌,即便後續 Google 即使調整,Bard 的影響仍然不能與 ChatGPT 相提並論。

造成如此的局面,Google 內部的一些員工也表示,Bard 壓根就沒能通過一些道德基準測試,很容易説謊,和發出負面言論。

在內部測試的過程中,一位員工向 Bard 尋求如何降落飛機,它回答出的步驟,極容易導致墜機。


而另外一位員工問 Bard 潛水問題時,它則會給出容易導致嚴重傷害或者死亡的答案。

除了這些危險的答案,在一些道德倫理和社會問題上,Google 也放鬆了要求。

在 Google 內部,有一個 AI 道德研究團隊,他們會探索、確立、評估 AI 所帶來的風險。

他們有權利直接為一項技術打上紅色標籤,未能通過測試就暫時不去面向公眾。

▲ Google 前 AI 道德團隊研究員 Timnit Gebru  圖片來自:Bloomberg

Google 在 2021 年也承諾為 AI 道德研究團隊擴充,並投入更多的資源,以鉗制技術研究人員的逐利。

但有意思的是,該團隊的領導人一直在更換,並且也在去年經歷過一輪裁員。

目前 Google AI 相關技術研究人員要比道德安全團隊多出 30 倍。


甚至在 ChatGPT 搶盡 AIGC 行業風頭之後,Google 也開始動搖,道德團隊的人員被告知不要阻撓或者「殺掉」正在開發的的任何生成式 AI 工具。

而在經歷內部測試,收到了不少「質疑」之後,Google 面對微軟和 ChatGPT 的商業壓力,最終也選擇以「實驗產品」的名義對外發布。

因為在一些統計調查裏,實驗產品即便有着缺陷,也更容易被大眾接受。


並且一些員工也認為新技術儘快公佈於眾,可以快速獲得反饋,能夠更快的更迭改進產品。

實際當中,在 Bard 發佈之後的相當長時間內,Google 也只進行了一次更迭,為其增加了數學邏輯的修改。

至於一些敏感圍欄、敏感主題是否有改變和優化,並未有提及。

Bard 在每日一變的 AI 浪潮裏似乎也正在被邊緣化。

馬斯克:ta 必須要監管

有趣的是,幾乎與 Pichai 的訪談前後腳,馬斯克也在 Fox 新聞上談到了 Google。

馬斯克與 Google 創始人 Larry Page 曾經是密友,Page 甚至買了 10% 的 SpaceX 股票,還想跟馬斯克一起去火星玩沙子。


但在 2014 年,Google 收購 DeepMind 後,二人對 AI 的看法發生了分歧,並最終不相往來。

同年,Page 在 TED 演講中表示,他的終極目標是建造一個超級數字人工智能,稱之為「數字之神(digital god)」。

而對於這個想法,Pichai 在《60 分鐘》的採訪中,並沒有否認,也沒有認同。


反而他只表示,Google 將會在 5 月 10 日舉行的開發者 I/O 大會發布新的 AI 產品。

而馬斯克對於「數字神」有着清晰的認知,Google 有着世界接近壟斷的高性能計算機與人工智能團隊,也最有可能達成所謂的「數字之神」。

但公司領導人 Page 卻絲毫不關心 AI 所帶來的安全問題,這對於世界來説,相當危險。


這也是他最近在看到 ChatGPT、新 bing、Bard 喜歡胡説之後,想要入局,並推出一個名為 TruthGPT 的類似產品。

另外,馬斯克也在呼籲各國各組織出台相應的政策來限制當下 AI 的一些出格行為。

由於生成式 AI 的特性,他的數據來自於互聯網論壇、論文、網站等方方面內容,由於這些數據沒有脱敏,不嚴格限制,很容易產生有風險、有害或者不準確的言論。

另外,隨着當下 AIGC 行業的火熱,入局者猶如淘金一般,彷彿人工智能正在進入一個新的發展階段。


但目前大規模模型、高算力的工業生成方式,也讓 AI 很容易被大公司壟斷。

當他們內部難以權衡逐利還是維持安全,就很容易在 AI 取向上犯錯,造成不可挽回的後果。

縱使馬斯克在 AIGC 上有着一絲私心,但在一些大是大非上,馬斯克的確要清醒不少。

能力越大,責任越大

Google Photos 會利用 AI 識圖進行標記,幫助用户梳理圖片進行分類。

這算是 Google 比較早的一個 AI 應用,即便 Google Photos 調整了免費容量,但它仍然是我最常用的一個 App。


但在 2015 年,Google Photos 誤將黑人軟件開發者和他的朋友的圖片標記為「大猩猩」。

比較正常的反應應該是道歉,並重構算法,逐步修復這個識別錯誤。

但 Google 卻選擇了將「大猩猩」、「黑猩猩」和「猴子」等搜索結果全部刪除。


而如今面對 Google Bard 出現的問題是,Google 仍然沒有承擔責任的意味,同樣還是選擇了輕視。

為了能夠追趕 ChatGPT,Google 內部存在的 AI 道德團隊並沒有對其進行全方位的評估,僅進行了敏感主題的研究,便最終匆忙推出。

彭博也引用一位前 AI 道德團隊高管的評價,認為 Google 對於發展尖端 AI 還是發展有道德底線的 AI 一直存在着爭議。


其實在 AIGC 行業內,不止是 Google,金融時報也曝出,微軟、亞馬遜等科技巨頭都在大規模的裁撤 AI 倫理團隊。

彷彿在 AIGC 高速發展,互相競爭的當下,AI 倫理、AI 安全已經影響到了他們互相追逐的枷鎖。

就如斯坦福大學研究人員的報告裏所言,AI 行業的快速發展,已經從學術轉向了工業化,在商業利益的誘惑下,各種 AI 正在湧現,但背後所帶來的倫理道德、安全、敏感、有害等信息卻逐步被忽視。


大公司們也變得不願去承擔更多的社會責任,僅在法律法規的邊緣上徘徊,如此最終可能會給社會和 AI 行業帶來深遠的影響。

目前多個國家和地區,甚至是一些公司和組織,也正在積極研究制定一些規則來限制 AI 無節制的發展。

也正如前福布斯中文版副主編尹生所言:「大公司必須做得比用户和法律要求的更多,因為你創建了一個新世界,並從中獲益,你必須幫助整個社會學會如何治理它,如果你不主動做,社會就會接管過去。」


資料來源:愛範兒(ifanr)

如果喜歡我們的文章,請即分享到︰