MIT 做了只“盲豹”機器人,爬樓梯騰空跳全無難度
説起機器人爬樓梯,不少人可能會想起波士頓動力那隻黃色的 SpotMini 機器人。
如果你覺得 SpotMini 能通過視覺分析路況已經很棒,那 MIT 的 Cheetah 3 肯定會讓你覺得更驚豔,因為它不僅可爬樓梯可跳躍,而且一切都是在不依賴視覺的情況下完成。
引用要是它踏在了一些鏡頭看不到的東西上,那該怎麼辦?我們不想過於依賴視覺。
其中一位參與到 Cheetah 3 項目的工程師 Sangbae Kim 説。不靠視覺或任何傳感器,機器人又是怎樣獲取了解路面情況?
就和在漆黑環境中前進的人類一樣,Cheetah 靠的也是“摸黑前行(blind locomotion)”。具體來説,Cheetah 主要依賴兩套新算法:1. 接觸感應算法;2. 模型預測控制算法。
簡單來説,接觸感應算法可以幫 Cheetah 判斷某隻機械腿接觸到的平面是否可“踏下去”,以及下一步又應該怎樣反應。
▲ “摸黑”爬樓梯
碰了一下後,算法得快速判斷機器人腳下是脆弱的樹枝,還是踏實的路面,它能不能踏下去?如果不可踏下去,算法會結合反饋數據決定,接下來機械腿是要趕緊抬起來,還是通過搖擺來保持機器人整體平衡。
至於模型預測控制算法,主要用於幫助機器人判斷,每踏出一步,到底需要用多大力,最終才能幫助機器人人保持平衡?
除了要“踏好每一步”,這個算法另一個任務在於幫助機器人在遇到意外阻力時,要怎樣恢復到平衡狀態。
引用譬如説,有人在側邊踢了機器人一腳。算法就會想,‘我剛剛在左邊遭遇了一個意外速度,我要怎樣控制每隻腳的用力狀態,才能保持平衡?如果我在相反方向施下 100 牛頓的力,半秒之後會發生什麼事?’
Kim 解釋道。這個算法可進行幫助機器人面對研究人員的突然拉扯和推力。
▲ “推啥推!”(口亨
引用視覺判斷可能會面臨干擾因素、不準確或情況不適用等問題。所以説,如果你的機器人過於依賴視覺,它對空間的判斷必須得非常準確,這會使得它反應非常慢。
因此,我們希望它可以更依賴觸覺信息,這樣一來,它能在快速移動時,仍可應對意外障礙物。
Kim 補充説。此外,這個功能也是出於對 Cheetah 作用定位的考慮。
和旨在進入辦公室和家庭的 SpotMini 不同,Cheetah 的使命在於去到人類不適宜到達地方,深入譬如坍塌大樓的廢墟、受核輻射影響地區等地方,進行拯救等工作。 這也是意味着它需要面對更復雜的路面情況、更黑暗的環境。
不過,Kim 表示,他們還是會為 Cheetah 裝上視覺系統,但“不想將視覺作為控制第一位”。
除了“摸黑”系統外,Cheetah 3 和上一代相比,機器靈活度也提升了不少。
▲ 可逆轉膝關節系統,真 · 機器人舞
▲ 靈活擺動
▲ 弓背彈跳,後面的研究人員看得也太樂了吧
相比之下,能開門的黃色 SpotMini 和 Cheetah 3 你比較喜歡哪個呢?
題圖來自 MIT
資料來源:愛範兒(ifanr)