IBM新型導航APP:讓視覺損傷者“看見”外面的世界,像其他人一樣自由漫步
IBM Research scientist Chieko Asakawa demonstrates the new NavCog app at Carnegie Mellon University. (Courtesy Carnegie Mellon)
IBM,這個藍色巨人近年來在科技領域似乎過於保守。從生產機械製表機開始,直到成為一個集硬件、軟件和服務於一身的大型科技企業,IBM在自己的領域顯得非常專注,並不輕易進行核心領域之外的其他科研活動。它曾經在存儲技術、數字通信技術、半導體芯片技術等方面領先世界,但是也僅僅是淺嘗輒止,並沒有深耕細作,形成完整的產業鏈。它更多地是不斷完善自己的系統,以服務於政府單位、金融機構和大企業,似乎對個人零售產品不太感興趣。
即便到了移動互聯網時代,也不見得它在個人版APP上的開發有多大的突破。雖然在去年和蘋果公司合作開發了10款IOS系統的APP,涉及航空、金融、保險、電信、零售以及政府通信等領域,但是這些APP無一例外全部是企業版本。比如一款叫做Plan Flight的APP,主要用途是供飛行員提前查看航班時刻表、航班計劃以及機組人員名單,在飛行中向地勤人員報告遇到的問題,提出最佳燃油使用推薦,很顯然這個APP是為航空公司設計的。
服務大企業和大機構是IBM的一貫作風,也是這家企業傳承已久的商業傳統和文化基因。二戰時期,它甚至還製造過槍械武器,當時下訂單的是美國國防部。
這是一個足以傲視全球的巨無霸,但是最近它悄悄改變了作風,開始研發一款個人用的APP,説實話,這個APP還不一定有多少人用,但是這個轉變無疑是值得期待的。
IBM和卡內基·梅隆大學合作開發個人用APP
華盛頓郵報近期在科技欄目上刊發了一篇短文,介紹了一款可以做盲人眼睛的新型APP,那麼這個被叫做NavCog的應用到底如何呢?下面先簡單介紹一下。
1、由IBM和卡內基·梅隆大學合作開發。負責這個手機應用開發的工程師來自久負盛名的IBM Research和卡內基-梅隆大學,這個開發工程是雙方的合作項目。有意思的是,其中一個主要的工程師,名叫Asakawa的女士,她自己本身就是一個盲人,她對這個應用充滿期待和自信,她希望以後能夠憑藉這個應用在科研樓裏自由漫步。
2、它不只可以導航。習慣了手機地圖的我們,對於導航功能並不陌生,甚至是司空見慣。可是對於盲人,事情就沒有那麼簡單了。不過,這個應用的構想也是不簡單的。
引用
- 首先,這個應用可以通過語音或者震動兩種方式,為盲人提供信息並進行導航;
- 其次,它可以將盲人的周邊環境處理成3D空間模型,並通過超聲波提供更準確的定位和導航制導;
- 第三,為了讓盲人知道身邊都有誰,這個應用還貼心地提供了人臉掃描功能,並能告訴盲人身邊的人的情緒。
當然,導航功能目前已經成熟,而人臉識別還在探索。
3、它暫時依賴藍牙燈塔提供的信號。應用的運行在目前主要依靠藍牙燈塔(Bluetooth Beacon),藍牙燈塔在國內可能不多見,但是在蘋果、Google等企業已經有相關的產品問世,簡而言之,它是一種比較方便的信號傳遞載體。目前,NavCog的試驗主要依賴於遍佈校園的藍牙燈塔,不過根據工程師們的介紹,他們的工作方向是逐漸讓應用適應各種環境,適應沒有藍牙燈塔的環境。
(藍牙燈塔,圖片來源:http://digi.tech.qq.com/a/20150901/013329.htm )
IBM也許會給人們帶來驚喜
如果NavCog的導航和人臉識別系統完善了,那麼它將是盲人的一大福音。或許某一天在街頭上,你可以看見一個身穿休閒裝、戴着耳機悠閒散步、時不時和路上的熟人打招呼的人,她看起來和我們一模一樣,誰也不會説她是個盲人。
不過IBM的工程師不滿足這些,有了上述功能,工程師可以開發出其他提高輔助認知能力的應用,這些應用可以當做醫護人員和氣象監測員的助手,甚至它還有可能用到對自閉症的研究中來。
雖然目前的技術水平還沒有達到此程度,但是不得不説這是IBM給人們帶來的驚喜,一個藴含着人文關懷的手機應用,一份進軍個人版APP領域的華麗開端。
一款可以做盲人眼睛的新型APP
本文所提到的華盛頓郵報文章,我自己將這篇文章翻譯出來了,供參考
隨着計算機在周邊環境下的感知能力的進一步提升,它也在幫助人們更好地感知這個世界。好在人工智能和機器人學等專業的發展,IBM Research和卡內基·梅隆大學的科學家正在為視覺損傷者研究一項讓他們能夠看見外面的世界的新方法。
這個目標不僅鼓舞人心,還極具創意——建立一個技術平台,讓視覺損傷者可以向其他人一樣自由漫步。這個工程的第一個嘗試是一款叫做NavCog的應用,它可以在IOS系統和Android系統上使用,這個應用可以通過耳機發出的聲音或者讓手機震動來為盲人導航(使用者可以選擇設定應用為“聲音模式”還是“震動模式”)。
就像汽車GPS提供的實時導航一樣,這個應用為盲人提供實時的視角。它分析來自人行道上的藍牙燈塔以及智能手機傳感器提供的信號,能讓盲人在沒有其他人的幫助下自由行動,無論在學校建築內還是在户外都可以。
當程序能夠幫助盲人隨時定位、告訴他們所處的方向以及周邊環境的其他信息時,好戲就開始了。電子導航程序將手機內對周邊環境拍下的照片處理成3D空間模型,以此來作為實時導航的指導。
NavCog工程,是位於Yorktown Heights 的IBM Research和卡內基-梅隆大學的合作項目,它對於工程的主要研究者之一的Chieko Asakawa具有特別的意義,她是IBM的院士以及卡內基-梅隆的客座教授,她是一個盲人。對她而言,利用這個APP幫助她在校園內行走將可能在短時間內變為現實,她戴着耳機,聽着從手機裏傳過來的聲音,行走時和別人並非兩樣。
“這僅僅是一個開端”,卡內基·梅隆大學機器人研究院的Kris Kitani這樣説道。當然,一個主要的目標,是要拓展被藍牙燈塔覆蓋面,目前的試驗主要依靠的是大學校園裏面的藍牙燈塔。為了鼓勵覆蓋,項目科學家將NavCog平台完全開放了,開發者能夠自由使用IBM BlueMix cloud上的資源。這使得其他的開發者有能力為系統強化其他方面的功能,並且加快展現出其他物理上的功能。
Kitani説,另一個重要目標,是使系統可以在任何環境,甚至在沒有藍牙燈塔的情況下運行。為了將這個可能性變為現實,學校希望在電子視覺和輔助認知兩方面進行提升,開展新的工作。輔助認知這個領域的設立是為了增強盲人正在消失和弱化了的感知能力,從外界重新獲得信息。
例如,通過電子輔助視覺系統對照片的處理,可能會發展一個更加精準的,不需要藍牙燈塔的系統。此外,當電子輔助視覺系統與定位系統結合時,潛在地也就能識別出每天的“地標”。比如,路上一排台階或者柵欄,這些東西目前並不能被傳感器感應。
引用“憑藉對那些對象的本地化信息的理解,我們正在嘗試一項技術,讓現實環境更加適合每一個人。我們開展人類智能和機器人技術的研究已經有很長一段時間,我們能更好地完善人們對於周邊環境的感知能力。這個開放的平台將擴大全球研究人員合作範圍,一個視覺障礙患者觀看世界的新時代即將來臨。” ——卡內基-梅隆大學機器人學院院長Martial Hebert説。
得利於卡內基-梅隆大學內人工智能和機器人專業的融合,研究者計劃在系統內加入其他的功能,使得NavCog不僅僅可以導航。舉個例子,面部識別元件將實時提醒你,你正在一個熟人旁邊路過。不止如此,傳感器還可以識別人們面部表情所反映出來的情緒:因為它可以分析出在你面前匆匆而過的人是笑容滿面還是緊鎖眉頭——這是與學校裏其他關於自閉症的部分研究工作有關。研究者同時還可以探索通過電子視覺來判斷周圍的人的活動,通過超聲波技術更加精準的定位。
如Asakawa所説,輔助識別的研究的進步創造出的NavCog應用與IBM Watson機構展示的電子識別是有類似的地方的。在這兩個案例中,他們都在不斷嘗試在確保時效性的前提下提高人類的識別能力。例如,在IBM公司內部,研究者有時候會使用“Watson on my shoulder”這個術語來憧憬IBM Watson的未來。那將是一個連續的、地方化的存在,它可以為所有人提供輔助識別,包括醫護人員和氣象監測員。
如果一切進展順利,那麼就可以為機器智能和人類智能設想一個高質的反饋迴路,在這裏,為提升機器能力而發展起來的識別技術,最終也會促進人類能力本身的提升。
*文章為作者獨立觀點,不代表虎嗅網立場
本文由 自坤 授權 虎嗅網 發表,並經虎嗅網編輯。轉載此文章須經作者同意,並請附上出處(虎嗅網)及本頁鏈接。原文鏈接http://www.huxiu.com/article/131444/1.html
資料來源:虎嗅網