Moto X 產品經理:如何讓手機擁有人性
半個世紀之前,我們在電影《2001太空漫遊》中初次遇見了感覺敏鋭的計算機Hal 9000。而50年之後,我們基本能用聲音指揮計算機,更期望他們不只聽見我們,還要聽懂我們。但為了真正改善我們的生活,移動設備除了處理所説的話,還要處理我們的意圖,以及我們所處情境。
開車時,手機不應期望你去觸碰它;睡覺時,它要清楚要把來電直接送至語音信箱,除非是緊急來電,而且它也應該能弄清楚來電原因;自拍時,你應該只用説“拍張自拍照”就好了。簡單地説,智能手機應該名副其實。
第二代Moto X的Moto Voice與Moto Assist軟件就以此為目標,而公司產品管理高級總監Mark Rose也對開發過程作出了闡釋。
手機要具有適應性與反饋性,為此Moto X就得時刻聽取來自用户以及情境氛圍暗示的口令。這種行為由軟件與硬件間複雜的相互作用產生,來電時,如果是非必須接聽,那麼它就會淡入屏幕背景,而這一動作則是來自手機的傳感器以及軟件的結果。它們會同時分析輸入信息,引發立即迴應。這一切的妙處都發生在界面的幕後。
Rose説:“所有這些進程都會通過某種方式連接和分離,無縫使用。所以從用户的角度説,只需對它説話,它就會為你辦事了。”
讓智能手機聽從指令是一項巨大挑戰,麥克風的信號必須過濾掉背景雜音,比如附近的交談聲、音樂聲、電視節目的聲音。
想想人類是如何在潛意識裏運用腦力,比如在人聲嘈雜的聚會上,人腦就會自動無視所有其他人的聊天聲,只關注自己參與的對話。經過訓練後,Moto X能在其他人的雜音中識別出用户聲音,而這涉及到性別、口音以及各種語言的計算機處理。
Rose對此表示:“測試與改善語音性能尤為艱難,人們是通過訓練才理解的語音,但在移動設備上使其奏效則存在着很多細微差別。我們已進行了很廣的內部測試,但真正的工作是在把軟件推向公眾之後。到那時我們擁有更大的樣本規模來改善技術。”
所謂的情境感知源自設備一系列紅外傳感器、加速計,以及麥克風對於用户樣本數據的協調。當用户對麥克風説話,或是在屏幕前面揮手,這些輸入數據會經過“情境引擎”軟件處理。軟件會推測用户在當下所做的是什麼,之後再決定最佳迴應。在很多情況下,正確的反應也許就是不打擾用户。例如,在駕駛的時候,Moto X就能調至純語音命令。
當絕大多數人在使用自己的設備,思考它們會如何反應的時候,Moto X軟件設計團隊花費了很多時間研究被稱之為“無用户交互”的東西。這是一個有趣的設計問題:當你在絕大多數時間不與手機互動,會發生什麼?而Rose對此給出的答案就是,手機應該能想清楚這問題。
拿Rose的例子來解釋就會非常清晰。某天早晨6點,正當他在上班路上時,用口令給遠在加州的妻子發了一條信息,告訴她現在室外有多冷。她回覆道,”你知道我這裏是凌晨4點嗎?“他回覆説,”我沒意識到你的手機會叫醒你,我的手機就不做這種事。“
via medium
資料來源:雷鋒網
作者/編輯:siskin15