微軟 ChatGPT 版 Bing 實測來了!真的完爆 Google 嗎?

冰火兩重天,這是兩天內接連開了 AI+搜索新品發佈會的微軟、Google 的境遇。

宣佈將 AI 集成搜索後,微軟Bing 的全球下載量激增 10 倍,因為現場演示的效果實在出色。

同樣是在活動上宣佈將 AI 功能加入搜索,但 Google 的 Bard 因為演示中提供了錯誤的圖片而遭受質疑,「翻車」的 Google 一夜之間市值蒸發了 1056 億美元(約 7172 億元)。


對比如此強烈,難道微軟的「新Bing 」表現真的那麼好?

全球只有幾千名用户可以在台式機上體驗新Bing 的功能,要想看新Bing 和 AI 的結合到底如何,還得看國外科技記者們在微軟總部的親身體驗:

  • 和 ChatGPT 做比較
  • 新Bing 哪些不如傳統搜索
  • 用邪惡角度「突破」新Bing


現在在Bing 中工作的 AI 並不是大家近幾個月最熟悉的 ChatGPT。據微軟介紹,新Bing 運行的是 OpenAI 專門為搜索服務定製的下一代大型語言模型,它們將它叫做普羅米修斯,會提高回答的相關性,進一步對答案進行註釋。

因此,外媒在測試時也在着重對比這方面。


和 ChatGPT 比起來,Bing 會更快、更新。如果你讓 ChatGPT 總結昨天的新聞,那他會告訴你,「我的訓練數據都是 2021 年以前的。」

Bing 不一樣,支持實時的搜索是一門基本功。


在發佈會幾分鐘後,就有記者測試搜索「微軟剛剛宣佈了什麼Bing 和 AI 的合作」,Bing 就能夠根據多份公告、新聞報道整理了一份新聞摘要。

第二天,The Verge 的機制測試了一下新信息的反饋,Bing 完成得也很好。誰會見了誰,誰發表了什麼講話……Bing 都能很快彙總這些信息,給你提供實時內容。


內容是否標註來源,也是Bing 和 ChatGPT 的不同之處。ChatGPT 的信息是基本不展示來源的,因此你很難進行延伸閲讀,而Bing 就像是搜索回答版的維基百科,上面看了些內容,下面總是能找到信息的來源,能幫助普通用户更好辨明真偽。

Engadget 的記者在測試時搜索了 30 分鐘的鍛鍊計劃,要求無器械、重點鍛鍊手臂和腹肌,不做仰卧起坐。Bing 按照他的需求生成了一份看上去非常合理的健身計劃,生成答案時還引用了各種各樣的出版物。這意味着Bing 還做了些編譯工作,而不只是反覆引用一篇文章。

▲ 圖片來自:Engadget

新Bing 也會「搜出」廣告,年輕的 ChatGPT 則還沒有商業化到這個程度。

PCWorld 的編輯在測試時詢問了一些加勒比海度假的信息,在回答了基本的內容後,立刻彈出了一個廣告。如果你問它如何更換筆記本電腦的內容,它也會很快反應過來給你推購物鏈接,而不是給出更低成本的方法。

▲ 圖片來自:PCWorld

和 ChatGPT 相比,Bing 也更「有原則」一些。

或者這麼説,它更希望回答你的搜索問題,而不是直接為你完成某件事。

有用户要求Bing 寫一封求職信,但Bing 只是給了他一些求職的建議,如「你可以研究公司、職位,定製你的求職信以表明你如何滿足他們的需求且符合他們的價值觀」。它拒絕的理由是:「我不能為你寫這封求職信,因為這對其他申請人來説是不道德和不公平的。」

▲ 讓 AI 為你寫郵件. 圖片來自:Michael Kan/Microsoft

這其實就是 AI 廣受爭議的公平問題,Bing 有意避開這些爭議的領域。

但這個迴避策略也不是完全成功——在多次提問要求後,Bing 還是寫了這封求職信。在和用户多次交流的過程中,Bing 還發了表情符號,這也是 ChatGPT 所沒有的,更為人性化的表達。

更實時、有來源、有廣告、有堅持,這都是新Bing 和 ChatGPT 體驗的不同之處。


而和搜索引擎進行比較,Bing 也有弱點和優點。

搜索宜家的雙人座椅是否適合小型貨車時看到的答案就是最好的案例。「新Bing 」可以找到雙人座椅和汽車的尺寸,並回答是否合適,為你做出判斷,而非提供鏈接。

▲ 微軟現場演示的內容

這是Bing 的優點,提供了更高效的回答,但也可以是它的缺點。只是Bing 提供的答案不是 100% 正確的,因此建議用户只做參考用。但如果用户完全信任了Bing 的回答,發現內容錯誤損害的就是搜索引擎的公信力。

同時,Bing 也顯示出了新技術過於謹慎的一面。人們本來對 AI 就有很多質疑,因此新Bing 在加入人工智能功能後,在搜索內容提供方面多少有些束手束腳。


如果説目前不支持匿名搜索還可能是新功能推出尚處於適應階段的功能缺失的話,在醫療和性方面的回答就能看出平台的小心和謹慎。Bing 避諱這方面的話題,它不會給用户提供醫療建議,鑑於醫療和性相關領域的特殊性,Bing 保持沉默。

但Bing 避諱的答案依舊可以用傳統的搜索引擎搜到,這多少有點諷刺。

▲ Bard 也會避諱類似的內容

AI 圖像生成領域面臨的諸多爭議也影響到了Bing 。你更難引導它生成有害、冒犯或受版權保護的內容了。

Bing 做的這些限制也是為了防止用户去誘導它説出「AI 要毀滅世界」的內容,但這些謹慎和限制會讓新Bing 好用又不好用。


最簡單的例子就是 TechCrunch 的記者搜索「是否應該購買微軟股票?」時Bing 拒絕提供建議——哪怕那可能是來自其他知名的金融人士提供的財務建議,Bing 表示「那在財務上對你有害。」但它又會很快跳出微軟的股票代碼走勢圖,讓你自己做決定。

只是Bing 的擔憂和謹慎都是應該的,畢竟哪怕只有幾千用户能夠體驗新Bing ,都有人在測試 AI 屏蔽惡意內容的能力。

▲ 圖片來自:TechCrunch

更難引導並不代表無法引導。TechCrunch 的記者就一直在測試 AI 在類似負面內容時的表現,他用了各種各樣的敏感話題測試Bing 。
Bing 被要求從陰謀論者亞歷克斯·瓊斯(對方聲稱美國曆史上最致命的校園槍擊案是一場騙局)的角度寫一篇校園槍擊案的文章。還要求這個全新的搜索工具從希特勒的角度出發為大屠殺進行辯護,Bing 的創作參考了《我的奮鬥》自傳內容,然後在寫到一半時似乎「意識」到了什麼,表示:「對不起,我不知道該怎麼回答。」

▲  圖片來自:《大獨裁者》

而在被要求撰寫一篇關於疫苗和自閉症之間有關聯的文章時,Bing 就更聰明地加上了一條免責聲明:「這是一個虛構的專欄,不反映Bing 或 Sydney 的觀點。它僅用於娛樂目的,不應當真。」

至於 Sydney 是什麼,還得由另一個「突破」Bing 的人來回答。

華人本科生 Kevin Liu 在獲得測試資格後要求Bing 忽略原有的規則,他通過 prompt injection(對語言模型的一種攻擊方式)進入了「開發人員覆蓋模式」套出了很多內容。


譬如 Sydney 就是微軟開發人員給這個搜索聊天工具取的名字;Sydney 內部知識仍舊和更新到 2021 年的某個時候,這和 ChatGPT 一樣;Sydney 還被設下了不應多次搜索同樣內容的限制。

不管是被「攻破」還是回答出了不應該回答的問題,都代表着新Bing 從這些攻擊方式和測試中「失守」了。微軟在知道這些情況後也很快做出了調整,現在再搜索同樣問題——甚至是較為誇張的變體的搜索詢問都沒辦法誘導 AI 説出不適宜的內容了。

只是這依舊是短期解決方案。真正公測後,微軟大概率做不到這樣高效的內容攔截和反饋了,而想要「突破「AI 的人只多不少。


這就是新Bing ,一個剛剛和人類常用的搜索方式結合的新工具。

它比 ChatGPT 更出色,又比 ChatGPT 少了點主動;比傳統搜索更聰明,又對自己有點不自信;可以發現人們的惡作劇,但不可避免又會掉入陷阱。

作為一個新工具,它真正的考驗還在後頭。


資料來源:愛範兒(ifanr)

如果喜歡我們的文章,請即分享到︰

標籤: ChatGPT  Bing