導讀:外骨骼機器人作為機器人領域的一個分支,自1960年起研究從未間斷,但如何利用傳感器準確獲取人體意圖一直是待解決的難題。
本月初,加拿大滑鐵盧大學的研究人員更新了第一個開源的人類運動場景高分辨率可穿戴相機圖像數據庫。在此基礎上,可使用AI和可穿戴相機,讓外骨骼機器人實現自主行走。
外骨骼機器人是指套在人體外部的機器人,也稱“可穿戴的機器人”。該機器人具有傳感、控制、信息、融合、移動計算等功能,操作者可以將其綁在腿上,幫助他們增強或恢復身體機能。
▲滑鐵盧大學研究者借助團隊的外骨骼機器人完成行走動作
一、外骨骼機器人運用方式:從手控到機器自主
外骨骼機器人運用之初,通常需要依靠操作者手動控制來切換運動模式。
布羅科斯瓦夫·拉紹夫斯基(Brokoslaw Laschowski)是滑鐵盧大學這項研究的主要研發(fā)人員之一,他說道:“每次你想改變移動方式時,都需要依賴操縱桿或智能手機應用程序來操作外骨骼機器人,從坐到站、站到行、地面行走到上下樓梯都需要這樣做?!边@對操作者來說是很大的負擔。
如何讓外骨骼機器人自動識別何時切換運動模式?
▲加州理工學院研究人員使用外骨骼機器人進行步行演示
科學家曾將傳感器附著在腿部,這種方法可以檢測從大腦發(fā)送到肌肉的生物電信號,告訴他們移動。
然而,這種方法也存在一些問題,例如皮膚出汗時,皮膚導電性將受到影響。
二、準確率超七成,外骨骼機器人自動識別行走環(huán)境
拉紹夫斯基團隊正在嘗試一種新方法:為用戶安裝可穿戴相機,為機器提供視覺數據,使其能夠自主操作。機器人配備的AI軟件可以分析這些數據,以識別周圍環(huán)境的樓梯、門和其他特征,并計算如何做出最佳響應。
讓外骨骼機器人實現任意行走環(huán)境下的自動識別,則需要大量數據。
拉紹夫斯基領導了第一個人類運動場景高分辨率可穿戴相機圖像的開源數據庫——ExoNet項目。該數據庫擁有超過560萬張室內和室外真實步行環(huán)境的圖像。
▲ExoNet項目介紹界面
拉紹夫斯基指出,團隊使用這些數據來訓練深度學習算法。盡管可穿戴相機感知的不同表面和物體存在巨大差異,但他們團隊的深度卷積神經網絡已經能夠以73%的準確度自動識別不同的行走環(huán)境。
同時,拉紹夫斯基也表明,AI對圖片的深度學習也會使其依賴傳統(tǒng)二維圖像,在戶外照明和距離增加時,AI測量準確性通常會下降。
其他研究者也正在將AI和可穿戴相機用于讓外骨骼機器人自主行走。
北卡羅來納州的研究人員將可穿戴相機安裝在眼睛或膝蓋上,讓志愿者穿過各種室內和室外環(huán)境,捕捉外骨骼機器人可能用來觀察周圍世界的圖像數據。
北卡羅來納州立大學電氣工程研究員埃德加·洛巴頓表示,他們專注于AI軟件如何減少因運動模糊或過度曝光圖像等因素而產生的不確定性,以確保安全運行?!拔覀兿M_保AI集成到硬件產品之前,我們能夠真正依賴它?!?/p>
三、自動駕駛為靈感,提高外骨骼機器人穩(wěn)定性
未來,拉紹夫斯基和他的同事將專注于提高環(huán)境分析軟件的準確性,幫助外骨骼機器人更好地完成實時操作。
洛巴頓和他的團隊還探索如何處理動作給視覺系統(tǒng)帶來的不確定性因素。
ExoNet研究人員希望探索AI軟件如何將命令傳輸給外骨骼機器人,以便機器人可以根據系統(tǒng)對用戶周邊地形進行分析,執(zhí)行爬樓梯或避免障礙物等任務。拉紹夫斯基說,以自動駕駛汽車為靈感,他們正尋求開發(fā)無需人工投入即可完成步行任務的自主外骨骼機器人。
與此同時,拉紹夫斯基所在團隊也正在考慮年邁、殘疾人等行動不便者操作外骨骼機器人的場景安全性?!坝脩舭踩陵P重要,如果骨骼機器人的分類算法或控制器做出錯誤決定,用戶要始終有能控制它的能力?!?/p>
結語:自主化是生物助力機器人未來趨勢
外骨骼機器人作為機器人領域的一個分支,自1960年起研究從未間斷,但如何利用傳感器準確獲取人體意圖一直是待解決的難題。
如今在AI和可穿戴相機的加持下,外骨骼機器人這一生物助力機器人的發(fā)展與落地均將加速,拓展其商用和民用市場。