看似無聊的本屆WWDC背後,蘋果在佈局怎樣的未來?
近來,微軟Build、GoogleI/O、蘋果WWDC相繼舉行。
雖説是開發者大會,而不是人工智能大會,微軟和Google都把AI當成了重心。Google戰略已經從Mobile First轉向了AI first,微軟強調全新的世界觀——智能雲和智能邊緣(Intelligent Cloud & Intelligent Edge)。而蘋果似乎沒有這麼着急地要一口吞下AI。
雖然蘋果佈局機器學習已久,卻一向低調。蘋果很早就發佈了人工智能語音助手Siri,但是外界卻普遍評價其在AI、機器學習上的進展落後於Google和微軟。而也是在2016年BackChannel的一篇文章才揭示了蘋果的iBrain,和蘋果是如何低調地把AI放進各個產品之中。
蘋果似乎依然不願意過度強調AI。WWDC2018上,發佈會臨結束時,負責軟件的蘋果高級副總裁Craig Federighi介紹了Metal和ML兩大技術,然而也只佔到了幾分鐘。
Craig Federighi談到,在軟件系統更新之外,Metal、ML和ARKit是更面向未來的技術。
Create ML:在Mac上訓練ML模型
現在,機器學習已經成為開發者常用的開發工具。
在WWDC2017上,蘋果介紹了Core ML。Core ML是能在蘋果產品上使用的高性能機器學習框架,能幫助開發者快速地將多種機器學習模型融合到App中。
開發者可以把在IBM Waston、Tensorflow、turi等平台訓練好的ML模型,放在Core ML上運行,Core ML能提供多樣、高效的推理運行環境,且支持iOS、mcOS等設備。
此次大會推出了升級的Core ML 2,其可以使模型運行更快,利用一項被稱為Batch Prediction的技術,Core ML 2的處理速度提升了30%,模型大小能減少75%。
除了將別家的ML模型導入自加的APP外,蘋果當然希望開發者能在現有的蘋果設備中訓練ML模型。
機器學習需要耗費大量的計算單元,通常都是在雲端完成,或者是用配備了多個GPU以及專為AI優化的硬件。
而為了讓更多人直接利用現有的Mac進行開發,Craig Federighi介紹了一個全新的工具——Create ML。Create ML可以支持計算機視覺、自然語言處理等機器學習任務,還支持添加自定義的數據,這些任務可以使用Swift 與 macOS 試驗場等熟悉的工具。等模型訓練好之後,就可以放進蘋果的Core ML框架裏運行。
例如,Memrise是一家做計算機視覺的公司,此前,他們需要用2000張圖像來訓練模型,大概花費24小時。而現在,他們可以在MacBook Pro上面訓練同樣的模型,只需要48分鐘,在iMac Pro上面則只需要18分鐘,並且模型的大小從90MB縮小到3MB。
Core ML 2和Create ML在效率上的提升,以及對硬件設備要求的降低也來源於GPU的支持。大多數在談到蘋果的ML工具Core ML時,都會忽視Metal,其實,Core ML是基於更底層的Metal開發的。
2014年蘋果推出Metal,能利用GPU來獲得更好的圖形和計算能力,能使得一些操作遊戲如《堡壘之夜》(Fortnight)在iPhone手機上運行。通過對external GPU的支持,Metal使得蘋果的設備能夠獲得更逼真的3D渲染效果,現場,Craig Federighi展示了Metal幫助Unity實現實時的光線渲染效果,這些光線就像是真實錄制下來的一樣,每個角度都有不同的變化。
除此之外,Metal的另一特色在於,其能支持機器學習,Metal Performance Shaders(MPS)能夠加速訓練神經網絡這樣的計算密集型任務,用GPU的MPS的訓練速度比CPU提升20倍。因此基於Metal開發的Core ML也能利用GPU,在效率上能得到很大提升。
AI無處不在
除了提供Core ML和Create ML,讓開發者也能簡單地在蘋果的設備上創建機器學習應用以外,蘋果自身的產品已經全面擁抱AI和機器學習。
此前,我們已經看到,為了用機器學習帶來更好的用户體驗,蘋果已經做出了很多嘗試。比如在iPad上利用機器學習識別手寫便籤的文本、在iPhone上通過學習和預測用户的使用習慣來讓iOS更省電、在照片app裏自動創建的回憶相冊以及面部識別, Siri也利用機器學習帶來了更多貼心的功能和更流暢的對答。這些,在今年WWDC新推出的iOS 12上都有了新的進展。
首先是智能化的照片分享功能。當用户在分享一張照片時,系統會把相關的照片都找出來,並且將照片中出現的人作為發送的推薦對象。然後,當對方收到照片後,系統會建議對方回覆手機中相關的照片。這樣一來,雙方就能很簡單地獲得在同一個活動或者事件中的完整照片。
更重要的是Siri的更新。
Siri是蘋果最先推出的AI應用,由於語音助手是用户獲得AI服務的一個重要入口,在各大巨頭公司的戰略佈局中,Siri這一類的語音助手也佔據了越來越重要的位置。在Google I/O大會上,Google剛剛展示了擁有“雙工”技術,能實現自然流暢的連續對話,能幫助用户給餐廳、理髮店打電話預定位置的Google Assistant。微軟的小冰也已經實現“全雙工語音交互”,能夠連續對話、進行唱歌寫詩等內容創作、還落地智能音箱和車載等智能硬件。
此次蘋果沒有展示Siri是否具備連續對話或者更強的對話理解能力,而是推出了新功能Siri Shortcuts。
有了Siri Shortcuts,每個應用都可以將一些快捷功能提供給Siri,讓Siri以更智能、更便捷、更符合用户行為習慣的方式執行。例如,通過設定短語“I lost my keys”幫助尋找鑰匙的應用Tile App可以添加一個Shortcuts給Siri。然後當你説出這句話時,Siri可以自動打開Tile,並且在Siri的界面直接調動尋找鑰匙這一功能,而無需去到應用裏。這樣的例子還有很多,例如可以把你的出行App的行程安排、把健身管理裏的課程表都變成Shortcuts,然後對着Siri説出相應的短語就可以調用這些不同應用的功能。
這個,似乎只是給了Siri更多的調用App功能的權利,另一項功能Siri Suggestion則更加智能。Siri Suggestion能夠根據你的使用行為來預測你將要做的事情,並且在相應的時間給出你建議。
例如,你的日程裏有一個聚會安排,但是Siri通過定位發現,聚會時間快到了你還離聚會地點很遠,Siri就會彈出一個快捷的消息,給你的朋友發消息説你會晚一點到。還有,如果Siri了解到你明天早上都會在一個App裏點咖啡,Siri就會在早上自動彈出一個簡化的頁面,讓你一鍵預定咖啡。
不得不説,這一切都基於Siri中的機器學習功能。微軟和Google都在致力於對話式人工智能的對話能力的提升,如何利用機器學習、深度學習這些技術來讓語音助手更好地理解人類的對話。而蘋果似乎沒有那麼前沿,而是讓Siri根據用户現有的行為習慣去優化App的使用體驗。
與iPhone同等重要的AR
2017年一整年,CEO庫克在各個場合強推AR,在他看來AR對蘋果的重要性,正如iPhone對蘋果的重要性一樣。在今年的WWDC上,AR其實是放在最前面的,也花費了很大的時長介紹了多項更新,也説明了AR在蘋果戰略中的有很重要的地位。
去年WWDC,蘋果公佈了其進軍AR的第一步,推出了AR軟件開發套件——ARKit。在過去一年裏,iPhone手機裏的AR應用數量已經上千。WWDC 2018 蘋果介紹了全新的ARKit 2。
ARKit 2主要有兩項更新:與Pixar合作的新的文件格式USDZ和多人共享AR。
USDZ是一個獨立的AR文件格式,可以通過蘋果的File、Safari、mail、message等應用分享。然後你可以打開文件,將AR效果直接置於現實環境中,就可以完成便捷的AR效果體驗。而Adobe、Autodesk、Sketchfab、Quixel這些工具都可以創作出USDZ格式的AR文件。那麼,不會使用Unity等專業的軟件設計工具的非專業人員也能創作出AR內容,這將會極大地豐富AR內容生產。
ARKit 2的另一項更新是多人AR。在此之前,AR遊戲只支持單人,這大大降低了遊戲的趣味。很多業內人士也告訴雷鋒網(公眾號:雷鋒網),多人AR遊戲是促進AR內容發展的關鍵點。有了多人AR之後,想象一下,把王者榮耀的遊戲場景投射到現實世界,然後你和隊友一起在現實空間裏跑來跑去,其樂趣是不是比呆坐着盯着手機體驗強多了!有了多人AR,2018年AR內容的豐富度和可玩度將極大提升。
蘋果在AR上的技術進步其實也是來自於AI技術的發展,ARKit所需要的環境識別、3D渲染其實都需要AI技術提供支持。全新的Memoji功能也彰顯了蘋果的AR和AI 不分家的特點。
蘋果在去年推出了Animoji,其可以通過iPhone X劉海部分的原深度攝像頭來檢測人臉,追蹤人臉的表情和動作,實時驅動動物表情包,生成每個人特製的動態表情。Memoji的更新在於現在用户可以定製出自己的形象,然後再加入動態表情,生成表情包。蘋果還將這項功能加入了Message的多人視頻通話中。
在AR方面,蘋果一直在憋的大招還有AR眼鏡。
雷鋒網曾報道,庫克曾坦言目前的AR技術不成熟,“AR要理解世界需要大量的技術,目前的技術只能將AR運用於iPhone或iPad之類的先進設備中。如果將AR應用於其他設備上,那麼你永遠不會獲得這樣的商業機會,不會有1500萬個設計者説我想借助AR釋放我們的設計激情。”
手機AR可以幫助蘋果迅速在AR市場佈局,同時,AR眼鏡的技術還需要時間來積累。庫克也説道:“好的視場技術和高質量的顯示器都尚未出現,”他説。像所有產品一樣,蘋果公司只會在保證品質的前提下進軍新的領域。“我們不在乎成為第一,但我們想成為最好,提供一流的用户體驗,”庫克説:“但現在可以在市場上隨時都會看到的東西並不是令我們滿意的產品,我也不認為絕大多數人會感到滿意。”
小結
從蘋果的AI和AR佈局,雷鋒網發現,蘋果的風格通常不是一旦有新技術就拿來做產品,而是等到成熟一些、確認能夠對用户體驗帶來改善,才會憑藉高超的工程能力把他們運用在產品中。現在人工智能技術、AR技術還處在起跑階段,不管是發力智能雲和智能邊緣的微軟、還是以AI First的Google、還是重視應用的蘋果,都還無法確定誰的路才是更好走、更快捷的一條。
相關文章:
蘋果開放機器學習API,但是沒有看到蘋果的機器學習開發平台
Build 大會中的 AI:微軟 AI 雲服務全線更新
微軟 Build 發佈會總覽:雖然 Windows 10 缺席,但亮點依然很多
Google I/O 2018 : 這裏是所有你不能錯過的大新聞
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
雖説是開發者大會,而不是人工智能大會,微軟和Google都把AI當成了重心。Google戰略已經從Mobile First轉向了AI first,微軟強調全新的世界觀——智能雲和智能邊緣(Intelligent Cloud & Intelligent Edge)。而蘋果似乎沒有這麼着急地要一口吞下AI。
雖然蘋果佈局機器學習已久,卻一向低調。蘋果很早就發佈了人工智能語音助手Siri,但是外界卻普遍評價其在AI、機器學習上的進展落後於Google和微軟。而也是在2016年BackChannel的一篇文章才揭示了蘋果的iBrain,和蘋果是如何低調地把AI放進各個產品之中。
蘋果似乎依然不願意過度強調AI。WWDC2018上,發佈會臨結束時,負責軟件的蘋果高級副總裁Craig Federighi介紹了Metal和ML兩大技術,然而也只佔到了幾分鐘。
Craig Federighi談到,在軟件系統更新之外,Metal、ML和ARKit是更面向未來的技術。
Create ML:在Mac上訓練ML模型
現在,機器學習已經成為開發者常用的開發工具。
在WWDC2017上,蘋果介紹了Core ML。Core ML是能在蘋果產品上使用的高性能機器學習框架,能幫助開發者快速地將多種機器學習模型融合到App中。
開發者可以把在IBM Waston、Tensorflow、turi等平台訓練好的ML模型,放在Core ML上運行,Core ML能提供多樣、高效的推理運行環境,且支持iOS、mcOS等設備。
此次大會推出了升級的Core ML 2,其可以使模型運行更快,利用一項被稱為Batch Prediction的技術,Core ML 2的處理速度提升了30%,模型大小能減少75%。
除了將別家的ML模型導入自加的APP外,蘋果當然希望開發者能在現有的蘋果設備中訓練ML模型。
機器學習需要耗費大量的計算單元,通常都是在雲端完成,或者是用配備了多個GPU以及專為AI優化的硬件。
而為了讓更多人直接利用現有的Mac進行開發,Craig Federighi介紹了一個全新的工具——Create ML。Create ML可以支持計算機視覺、自然語言處理等機器學習任務,還支持添加自定義的數據,這些任務可以使用Swift 與 macOS 試驗場等熟悉的工具。等模型訓練好之後,就可以放進蘋果的Core ML框架裏運行。
例如,Memrise是一家做計算機視覺的公司,此前,他們需要用2000張圖像來訓練模型,大概花費24小時。而現在,他們可以在MacBook Pro上面訓練同樣的模型,只需要48分鐘,在iMac Pro上面則只需要18分鐘,並且模型的大小從90MB縮小到3MB。
Core ML 2和Create ML在效率上的提升,以及對硬件設備要求的降低也來源於GPU的支持。大多數在談到蘋果的ML工具Core ML時,都會忽視Metal,其實,Core ML是基於更底層的Metal開發的。
2014年蘋果推出Metal,能利用GPU來獲得更好的圖形和計算能力,能使得一些操作遊戲如《堡壘之夜》(Fortnight)在iPhone手機上運行。通過對external GPU的支持,Metal使得蘋果的設備能夠獲得更逼真的3D渲染效果,現場,Craig Federighi展示了Metal幫助Unity實現實時的光線渲染效果,這些光線就像是真實錄制下來的一樣,每個角度都有不同的變化。
除此之外,Metal的另一特色在於,其能支持機器學習,Metal Performance Shaders(MPS)能夠加速訓練神經網絡這樣的計算密集型任務,用GPU的MPS的訓練速度比CPU提升20倍。因此基於Metal開發的Core ML也能利用GPU,在效率上能得到很大提升。
AI無處不在
除了提供Core ML和Create ML,讓開發者也能簡單地在蘋果的設備上創建機器學習應用以外,蘋果自身的產品已經全面擁抱AI和機器學習。
此前,我們已經看到,為了用機器學習帶來更好的用户體驗,蘋果已經做出了很多嘗試。比如在iPad上利用機器學習識別手寫便籤的文本、在iPhone上通過學習和預測用户的使用習慣來讓iOS更省電、在照片app裏自動創建的回憶相冊以及面部識別, Siri也利用機器學習帶來了更多貼心的功能和更流暢的對答。這些,在今年WWDC新推出的iOS 12上都有了新的進展。
首先是智能化的照片分享功能。當用户在分享一張照片時,系統會把相關的照片都找出來,並且將照片中出現的人作為發送的推薦對象。然後,當對方收到照片後,系統會建議對方回覆手機中相關的照片。這樣一來,雙方就能很簡單地獲得在同一個活動或者事件中的完整照片。
更重要的是Siri的更新。
Siri是蘋果最先推出的AI應用,由於語音助手是用户獲得AI服務的一個重要入口,在各大巨頭公司的戰略佈局中,Siri這一類的語音助手也佔據了越來越重要的位置。在Google I/O大會上,Google剛剛展示了擁有“雙工”技術,能實現自然流暢的連續對話,能幫助用户給餐廳、理髮店打電話預定位置的Google Assistant。微軟的小冰也已經實現“全雙工語音交互”,能夠連續對話、進行唱歌寫詩等內容創作、還落地智能音箱和車載等智能硬件。
此次蘋果沒有展示Siri是否具備連續對話或者更強的對話理解能力,而是推出了新功能Siri Shortcuts。
有了Siri Shortcuts,每個應用都可以將一些快捷功能提供給Siri,讓Siri以更智能、更便捷、更符合用户行為習慣的方式執行。例如,通過設定短語“I lost my keys”幫助尋找鑰匙的應用Tile App可以添加一個Shortcuts給Siri。然後當你説出這句話時,Siri可以自動打開Tile,並且在Siri的界面直接調動尋找鑰匙這一功能,而無需去到應用裏。這樣的例子還有很多,例如可以把你的出行App的行程安排、把健身管理裏的課程表都變成Shortcuts,然後對着Siri説出相應的短語就可以調用這些不同應用的功能。
這個,似乎只是給了Siri更多的調用App功能的權利,另一項功能Siri Suggestion則更加智能。Siri Suggestion能夠根據你的使用行為來預測你將要做的事情,並且在相應的時間給出你建議。
例如,你的日程裏有一個聚會安排,但是Siri通過定位發現,聚會時間快到了你還離聚會地點很遠,Siri就會彈出一個快捷的消息,給你的朋友發消息説你會晚一點到。還有,如果Siri了解到你明天早上都會在一個App裏點咖啡,Siri就會在早上自動彈出一個簡化的頁面,讓你一鍵預定咖啡。
不得不説,這一切都基於Siri中的機器學習功能。微軟和Google都在致力於對話式人工智能的對話能力的提升,如何利用機器學習、深度學習這些技術來讓語音助手更好地理解人類的對話。而蘋果似乎沒有那麼前沿,而是讓Siri根據用户現有的行為習慣去優化App的使用體驗。
與iPhone同等重要的AR
2017年一整年,CEO庫克在各個場合強推AR,在他看來AR對蘋果的重要性,正如iPhone對蘋果的重要性一樣。在今年的WWDC上,AR其實是放在最前面的,也花費了很大的時長介紹了多項更新,也説明了AR在蘋果戰略中的有很重要的地位。
去年WWDC,蘋果公佈了其進軍AR的第一步,推出了AR軟件開發套件——ARKit。在過去一年裏,iPhone手機裏的AR應用數量已經上千。WWDC 2018 蘋果介紹了全新的ARKit 2。
ARKit 2主要有兩項更新:與Pixar合作的新的文件格式USDZ和多人共享AR。
USDZ是一個獨立的AR文件格式,可以通過蘋果的File、Safari、mail、message等應用分享。然後你可以打開文件,將AR效果直接置於現實環境中,就可以完成便捷的AR效果體驗。而Adobe、Autodesk、Sketchfab、Quixel這些工具都可以創作出USDZ格式的AR文件。那麼,不會使用Unity等專業的軟件設計工具的非專業人員也能創作出AR內容,這將會極大地豐富AR內容生產。
ARKit 2的另一項更新是多人AR。在此之前,AR遊戲只支持單人,這大大降低了遊戲的趣味。很多業內人士也告訴雷鋒網(公眾號:雷鋒網),多人AR遊戲是促進AR內容發展的關鍵點。有了多人AR之後,想象一下,把王者榮耀的遊戲場景投射到現實世界,然後你和隊友一起在現實空間裏跑來跑去,其樂趣是不是比呆坐着盯着手機體驗強多了!有了多人AR,2018年AR內容的豐富度和可玩度將極大提升。
蘋果在AR上的技術進步其實也是來自於AI技術的發展,ARKit所需要的環境識別、3D渲染其實都需要AI技術提供支持。全新的Memoji功能也彰顯了蘋果的AR和AI 不分家的特點。
蘋果在去年推出了Animoji,其可以通過iPhone X劉海部分的原深度攝像頭來檢測人臉,追蹤人臉的表情和動作,實時驅動動物表情包,生成每個人特製的動態表情。Memoji的更新在於現在用户可以定製出自己的形象,然後再加入動態表情,生成表情包。蘋果還將這項功能加入了Message的多人視頻通話中。
在AR方面,蘋果一直在憋的大招還有AR眼鏡。
雷鋒網曾報道,庫克曾坦言目前的AR技術不成熟,“AR要理解世界需要大量的技術,目前的技術只能將AR運用於iPhone或iPad之類的先進設備中。如果將AR應用於其他設備上,那麼你永遠不會獲得這樣的商業機會,不會有1500萬個設計者説我想借助AR釋放我們的設計激情。”
手機AR可以幫助蘋果迅速在AR市場佈局,同時,AR眼鏡的技術還需要時間來積累。庫克也説道:“好的視場技術和高質量的顯示器都尚未出現,”他説。像所有產品一樣,蘋果公司只會在保證品質的前提下進軍新的領域。“我們不在乎成為第一,但我們想成為最好,提供一流的用户體驗,”庫克説:“但現在可以在市場上隨時都會看到的東西並不是令我們滿意的產品,我也不認為絕大多數人會感到滿意。”
小結
從蘋果的AI和AR佈局,雷鋒網發現,蘋果的風格通常不是一旦有新技術就拿來做產品,而是等到成熟一些、確認能夠對用户體驗帶來改善,才會憑藉高超的工程能力把他們運用在產品中。現在人工智能技術、AR技術還處在起跑階段,不管是發力智能雲和智能邊緣的微軟、還是以AI First的Google、還是重視應用的蘋果,都還無法確定誰的路才是更好走、更快捷的一條。
相關文章:
蘋果開放機器學習API,但是沒有看到蘋果的機器學習開發平台
Build 大會中的 AI:微軟 AI 雲服務全線更新
微軟 Build 發佈會總覽:雖然 Windows 10 缺席,但亮點依然很多
Google I/O 2018 : 這裏是所有你不能錯過的大新聞
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網