申請 ChatGPT 和新 Bing 們的賬號,為什麼都要等這麼久?
上週,AIGC 的變化讓世界變得瘋狂,每天醒來都可能是一個「新世界」。
但從另一個角度上來説,無論 AIGC 如何智能和顛覆,我們仍然處於「舊世界」,或者準確的説,應該是「候補」世界。
不止是新 Bing,Github Copilot X,ChatGPT 的插件,Midjourney V5,以及 Adobe 的 Firefly,甚至是百度的文心一言,在你體驗之前,都需要加入 Waitlist 名單進行排隊等待名額。這個過程,像極了計劃經濟的配給制。
隨着 AIGC 的服務越多,也包括原有的像是 GPT-4、Midjourney V5 的升級,Waitlist 的時間彷彿被延長。
▲ Midjourney V5
直到如今,仍然有相當多人還存在於新 Bing 的 Waitlist 之內,更別説其他更新的生成式 AI 體驗。
或許是對 Waitlist 這個潛規則的無聲反抗,有人做了一個「一鍵進行所有排隊」的網站。
不過諷刺的是,「一鍵加入」的功能還未做好,需要先加入 Waitlist 等待,且網站域名後綴是 wtf,怨氣拉滿。
候補名單的背後是為了更穩的服務
當我把這個問題丟給 Bing,Bing 從 OpenAI 官方網站的三個也面裏找到了四個原因。
而這也更像是 OpenAI、微軟、Google 等大公司針對無限期 Wait 的一些官方話術。
相對來説,最先走入大眾的 ChatGPT,隨着模型的升級,以及大幅度降價,ChatGPT 的服務也出現過不少的波動。
吞過問答記錄,宕過機,以及問答列表的混亂等等穩定性問題。
而基於 OpenAI 的新 Bing 同樣也出現過過激的言辭,一直到現在,微軟也在限制新 Bing 的對話次數與長度。
你可以説,限制使用 ChatGPT 和新 Bing 的人數,能夠提供更穩定和快速的響應和內容生成。
但要知道這些功能和服務,已經消耗了相當的資源,幾乎佔用了微軟 Azure 一半的算力。
目前,AIGC 還尚未迎來超級 App,仍然處於一個快速迭代的過程,甚至也可以説仍然是一個 Beta 測試版本。
通過傳統的對話框與 AI 進行交互,其實是與 2023 年人手一部智能手機的狀況不太相匹配。
AIGC 現在只能算是一個功能,而即將推出的 Copilot、Firefly 等才更像是個產品。
▲ Office 365 的 Copilot 功能
但它們仍然還未向外開放,躺在一個個 Waitlist 裏。
從某方面來説,微軟、Google、Adobe 還在「打磨」自己的產品,而從另一個方向來看,想要對所有人敞開大門,或者説 AI 成為每個人的 Copilot,還需要突破一些「瓶頸」。
蓬勃發展的 AIGC,或許開始觸及瓶頸
這裏的「瓶頸」,並非是外在表現的,生成式 AI 所遇到的倫理、法律法規或者説其響應的準確度。
反而是 AI 背後提供算力的硬件,以及各種用於訓練的雲算力。
微軟正持續在 OpenAI 上大手筆的投入,先後投入幾十億美元,也逐步出現了基於 GPT-4 的新 bing,和後續還在 Waitlist 上的新 Office。
同時,為了保證新 bing,以及後續具有 Copilot 功能的新 Office 能夠穩定快速的響應。
微軟也提供和預留了其 Azure 雲服務的一半算力和運算容量。
如此也導致了微軟內部 Azure 算力資源的緊張。The Information 就採訪了微軟內部員工,針對於有限的硬件運算資源,微軟正在實行內部硬件 Waitlist 制度。
微軟內部其他開發機器學習模型的團隊和部門,想要調用 Azure 的 AI 雲服務,需要逐級審批報備,並最終由一位副總裁來定奪。
就如同我們在排隊體驗新的生成式 AI 服務,除了新 bing 和新 Office 和 OpenAI 服務外,微軟其他部門也在等待多餘的 Azure 雲算力。
只是,隨着微軟 All in OpenAI 的策略,Azure 雲相關算力和容量也顯得十分緊張。
除了內部調用外,Azure 也提供了各種產品和服務,包括 AI、計算、容器、混合雲、物聯網等。
作為雲服務供應商 Azure 目前擴展到全球 60 多個區域,其對外服務器產品和雲服務收入佔到微軟總營收的 36%。
但與微軟內部團隊類似,購買 Azure 的客户也受到了算力受限的影響,尤其是想要調用 Azure OpenAI 依舊需要加入 Waitlist。
大概從 2022 年底,微軟就打算增加更多的硬件(GPU 或者 TPU)來擴充更多的算力。
並且也與英偉達達成協議,為 Azure 增加數萬個 H100 GPU 計算卡,為後續 OpenAI 提供更高的 AI 訓練和推理效率。
不過,目前微軟與英偉達並未透露在 Azure 當中 H100 的部署情況,微軟內部也只有一小部分團隊擁有 H100 的調用權限(大概率是新 bing 和 Office),大部分的部門仍然被排除在外。
一塊 H100 大概的售價可能在 24 萬元上下,以此為參考的話,微軟為 Azure 擴容則需要投入數億資金。
不止是微軟,Google、甲骨文這些雲服務商,也在大力投入 GPU 等硬件為自己的雲服務擴容,準備在 AIGC 徹底爆發之前,做好算力上的準備。
▲ 英偉達 CEO 黃仁勳與 OpenAI 聯合創始人兼首席科學家 Ilya Sutskever
但從 GTC 2022 發佈到現在,英偉達並沒有對外公佈 H100 的供應和銷售情況,微軟對於 Azure 的擴容計劃是否成效也不得而知。
而在今年的 GTC 2023 中,英偉達並沒有帶來關於 H100、A100 硬件上的進展,而是一直在強調英偉達在雲計算硬件上的優勢。
並且其首席技術官也開始強調,「加密貨幣對於社會沒有任何有益的貢獻」,也從側面開始強調 AIGC 領域將會是英偉達接下來 30 多年所專注的領域。
隨着 AIGC 領域的持續迭代,大概從 2022 年 10 月份,英偉達的股票也隨之增長,一掃此前因為加密貨幣衰退而導致的業務下滑頹勢。
目前,英偉達的市值又達到了一個高點,幾乎等同於 Intel、AMD、ARM 這三家市值之和。
但如此的高市值,似乎並沒有改善硬件的供應狀況,反而隨着 Google、微軟等大企業不計成本資源地對雲計算硬件投入,按照此前英偉達的供應狀況,很可能再次出現工業顯卡慌的一個局面。
不止是硬件供應狀況,這些高性能 GPU 組成的計算矩陣也有着很高的功率,單張 SXM 接口的 H100 計算卡功率就達到了 700W。
用於 AI 模型訓練和大數據處理的計算中心的耗電量實際上也十分驚人。
在 2021 年,加州大學的 David Patterson、Joseph Gonzalez 通過研究表明,訓練 GPT-3 大概需要耗費 1.287 千兆瓦時的電力,它相當於 120 個美國家庭一年的用電量。
同時,這篇論文還發現,訓練 GPT-3 會產生 502 噸的碳排放,等同於 110 輛汽車的一年排放量。
他們也強調這只是一個模型的訓練成本,隨着它湧入市場,也會產生更多的資源消耗,可能要比訓練成本還高。
OpenAI 的 GPT-3 實用了 1750 億個參數或者變量,而 GPT-4 的參數預計在 1750 億到 2800 億之間。對於能耗,雲計算的需求只增不減。
為此,OpenAI CEO Sam Altman 在接受 The Verge 採訪時表示,OpenAI 正在尋找有效的方法來提升模型的性能和安全性。
換句話説,OpenAI 也在試圖通過更高效的算法來尋找節省訓練運行模型的硬件、電力資源。
Waitlist 的機制,從淺層次來看,它確保了當前 AIGC 的使用體驗,以及相關服務的響應速度。
但從深層次來看,它也是一場資源角力,是 GPU、TPU 為核心的雲計算中心算力和容量的互相角力,也是宏觀上高投入高能耗的一場競爭。
而到目前為止,AIGC 其實仍處於一個「盲盒」階段,對於資源的需求和佔用也尚不明朗。
不過,站在各種 AI 服務的 Waitlist 隊列裏,確實很像在科幻電影里人們正不斷排隊進入 AI 控制的工廠,為其運行提供所需的資源。
Waitlist,即是虛擬世界裏的候補名單,也可能是將來現實世界當中的一則為 AI 服務的隊列。
資料來源:愛範兒(ifanr)
但從另一個角度上來説,無論 AIGC 如何智能和顛覆,我們仍然處於「舊世界」,或者準確的説,應該是「候補」世界。
不止是新 Bing,Github Copilot X,ChatGPT 的插件,Midjourney V5,以及 Adobe 的 Firefly,甚至是百度的文心一言,在你體驗之前,都需要加入 Waitlist 名單進行排隊等待名額。這個過程,像極了計劃經濟的配給制。
隨着 AIGC 的服務越多,也包括原有的像是 GPT-4、Midjourney V5 的升級,Waitlist 的時間彷彿被延長。
▲ Midjourney V5
直到如今,仍然有相當多人還存在於新 Bing 的 Waitlist 之內,更別説其他更新的生成式 AI 體驗。
或許是對 Waitlist 這個潛規則的無聲反抗,有人做了一個「一鍵進行所有排隊」的網站。
不過諷刺的是,「一鍵加入」的功能還未做好,需要先加入 Waitlist 等待,且網站域名後綴是 wtf,怨氣拉滿。
候補名單的背後是為了更穩的服務
當我把這個問題丟給 Bing,Bing 從 OpenAI 官方網站的三個也面裏找到了四個原因。
- 限制用户數量,保證服務質量和穩定性。
- 收集用户反饋,改進服務功能和體驗。
- 增加用户期待和參與感,提高服務知名度和口碑。
- 篩選出符合目標人羣的用户,提高服務轉化率和留存率。
而這也更像是 OpenAI、微軟、Google 等大公司針對無限期 Wait 的一些官方話術。
相對來説,最先走入大眾的 ChatGPT,隨着模型的升級,以及大幅度降價,ChatGPT 的服務也出現過不少的波動。
吞過問答記錄,宕過機,以及問答列表的混亂等等穩定性問題。
而基於 OpenAI 的新 Bing 同樣也出現過過激的言辭,一直到現在,微軟也在限制新 Bing 的對話次數與長度。
你可以説,限制使用 ChatGPT 和新 Bing 的人數,能夠提供更穩定和快速的響應和內容生成。
但要知道這些功能和服務,已經消耗了相當的資源,幾乎佔用了微軟 Azure 一半的算力。
目前,AIGC 還尚未迎來超級 App,仍然處於一個快速迭代的過程,甚至也可以説仍然是一個 Beta 測試版本。
通過傳統的對話框與 AI 進行交互,其實是與 2023 年人手一部智能手機的狀況不太相匹配。
AIGC 現在只能算是一個功能,而即將推出的 Copilot、Firefly 等才更像是個產品。
▲ Office 365 的 Copilot 功能
但它們仍然還未向外開放,躺在一個個 Waitlist 裏。
從某方面來説,微軟、Google、Adobe 還在「打磨」自己的產品,而從另一個方向來看,想要對所有人敞開大門,或者説 AI 成為每個人的 Copilot,還需要突破一些「瓶頸」。
蓬勃發展的 AIGC,或許開始觸及瓶頸
這裏的「瓶頸」,並非是外在表現的,生成式 AI 所遇到的倫理、法律法規或者説其響應的準確度。
反而是 AI 背後提供算力的硬件,以及各種用於訓練的雲算力。
微軟正持續在 OpenAI 上大手筆的投入,先後投入幾十億美元,也逐步出現了基於 GPT-4 的新 bing,和後續還在 Waitlist 上的新 Office。
同時,為了保證新 bing,以及後續具有 Copilot 功能的新 Office 能夠穩定快速的響應。
微軟也提供和預留了其 Azure 雲服務的一半算力和運算容量。
如此也導致了微軟內部 Azure 算力資源的緊張。The Information 就採訪了微軟內部員工,針對於有限的硬件運算資源,微軟正在實行內部硬件 Waitlist 制度。
微軟內部其他開發機器學習模型的團隊和部門,想要調用 Azure 的 AI 雲服務,需要逐級審批報備,並最終由一位副總裁來定奪。
就如同我們在排隊體驗新的生成式 AI 服務,除了新 bing 和新 Office 和 OpenAI 服務外,微軟其他部門也在等待多餘的 Azure 雲算力。
只是,隨着微軟 All in OpenAI 的策略,Azure 雲相關算力和容量也顯得十分緊張。
除了內部調用外,Azure 也提供了各種產品和服務,包括 AI、計算、容器、混合雲、物聯網等。
作為雲服務供應商 Azure 目前擴展到全球 60 多個區域,其對外服務器產品和雲服務收入佔到微軟總營收的 36%。
但與微軟內部團隊類似,購買 Azure 的客户也受到了算力受限的影響,尤其是想要調用 Azure OpenAI 依舊需要加入 Waitlist。
大概從 2022 年底,微軟就打算增加更多的硬件(GPU 或者 TPU)來擴充更多的算力。
並且也與英偉達達成協議,為 Azure 增加數萬個 H100 GPU 計算卡,為後續 OpenAI 提供更高的 AI 訓練和推理效率。
不過,目前微軟與英偉達並未透露在 Azure 當中 H100 的部署情況,微軟內部也只有一小部分團隊擁有 H100 的調用權限(大概率是新 bing 和 Office),大部分的部門仍然被排除在外。
一塊 H100 大概的售價可能在 24 萬元上下,以此為參考的話,微軟為 Azure 擴容則需要投入數億資金。
不止是微軟,Google、甲骨文這些雲服務商,也在大力投入 GPU 等硬件為自己的雲服務擴容,準備在 AIGC 徹底爆發之前,做好算力上的準備。
▲ 英偉達 CEO 黃仁勳與 OpenAI 聯合創始人兼首席科學家 Ilya Sutskever
但從 GTC 2022 發佈到現在,英偉達並沒有對外公佈 H100 的供應和銷售情況,微軟對於 Azure 的擴容計劃是否成效也不得而知。
而在今年的 GTC 2023 中,英偉達並沒有帶來關於 H100、A100 硬件上的進展,而是一直在強調英偉達在雲計算硬件上的優勢。
並且其首席技術官也開始強調,「加密貨幣對於社會沒有任何有益的貢獻」,也從側面開始強調 AIGC 領域將會是英偉達接下來 30 多年所專注的領域。
隨着 AIGC 領域的持續迭代,大概從 2022 年 10 月份,英偉達的股票也隨之增長,一掃此前因為加密貨幣衰退而導致的業務下滑頹勢。
目前,英偉達的市值又達到了一個高點,幾乎等同於 Intel、AMD、ARM 這三家市值之和。
但如此的高市值,似乎並沒有改善硬件的供應狀況,反而隨着 Google、微軟等大企業不計成本資源地對雲計算硬件投入,按照此前英偉達的供應狀況,很可能再次出現工業顯卡慌的一個局面。
不止是硬件供應狀況,這些高性能 GPU 組成的計算矩陣也有着很高的功率,單張 SXM 接口的 H100 計算卡功率就達到了 700W。
用於 AI 模型訓練和大數據處理的計算中心的耗電量實際上也十分驚人。
在 2021 年,加州大學的 David Patterson、Joseph Gonzalez 通過研究表明,訓練 GPT-3 大概需要耗費 1.287 千兆瓦時的電力,它相當於 120 個美國家庭一年的用電量。
同時,這篇論文還發現,訓練 GPT-3 會產生 502 噸的碳排放,等同於 110 輛汽車的一年排放量。
他們也強調這只是一個模型的訓練成本,隨着它湧入市場,也會產生更多的資源消耗,可能要比訓練成本還高。
OpenAI 的 GPT-3 實用了 1750 億個參數或者變量,而 GPT-4 的參數預計在 1750 億到 2800 億之間。對於能耗,雲計算的需求只增不減。
為此,OpenAI CEO Sam Altman 在接受 The Verge 採訪時表示,OpenAI 正在尋找有效的方法來提升模型的性能和安全性。
換句話説,OpenAI 也在試圖通過更高效的算法來尋找節省訓練運行模型的硬件、電力資源。
Waitlist 的機制,從淺層次來看,它確保了當前 AIGC 的使用體驗,以及相關服務的響應速度。
但從深層次來看,它也是一場資源角力,是 GPU、TPU 為核心的雲計算中心算力和容量的互相角力,也是宏觀上高投入高能耗的一場競爭。
而到目前為止,AIGC 其實仍處於一個「盲盒」階段,對於資源的需求和佔用也尚不明朗。
不過,站在各種 AI 服務的 Waitlist 隊列裏,確實很像在科幻電影里人們正不斷排隊進入 AI 控制的工廠,為其運行提供所需的資源。
Waitlist,即是虛擬世界裏的候補名單,也可能是將來現實世界當中的一則為 AI 服務的隊列。
資料來源:愛範兒(ifanr)