自動駕駛汽車和機器人領域的傳感器和攝像頭套件,已經能夠對周圍環(huán)境產生積極的識別檢測。 不過近日,佐治亞大學人工智能研究所的 Jagadish K. Mahendran 和他的研究團隊,還為視力障礙人士設計了一款“導航背包”。 其作為一款 AI 驅動、語音激活的低功耗交互式設備,它能夠幫助用戶應付常見的出行挑戰(zhàn)。
(視頻截圖 viaIntel)
據悉,這套視覺輔助系統(tǒng)由一件背包(或背心)、以及一副耳機組成。 4K 攝像頭能夠采集外界顏色,而一對深度傳感器能夠采集 3D 信息。
在將視覺信息送入背包中的“大腦”之后(筆記本電腦或樹莓派計算機),系統(tǒng)可借助一個通過 USB 連接的 GPS 組件、OAK-D 接口、Open CV 軟件、以及神經網絡來解析可視數(shù)據。
除了長達 8 小時的續(xù)航時間,“隱匿性”也是此設備的一個重要因素,從視頻演示畫面來看,它能夠讓穿戴者像常人一樣在大街上走動,而不會像一臺機器人那樣惹人注目。
處理完成后,系統(tǒng)可通過藍牙向用戶傳輸導航信息,以警告類型和大小不盡相同的障礙物,并使用簡潔的語言來描述該規(guī)避的相對方位(比如上、下、左、右、中心)。
Visual Assistance System for the Visually Impaired( via )
由視頻可知,這套背包 AI 導航系統(tǒng)能夠分辨垃圾桶、有較高落差的階梯等對象、以及一些重要的標識牌(比如停車避讓)。此外在接近道路拐角時,系統(tǒng)也能夠及時發(fā)出語音提醒。
此外系統(tǒng)還支持更多的語音命令交互,比如描述 10 點鐘方向的汽車、12 點鐘方向的行人、1 點鐘方向的交通燈,或者要求保存當前位置、以及導航至 咖啡 館等特定地點。
最后,盡管仍處于早期階段,研究團隊還是盡快將之推向開源和非商業(yè)化的應用,以推動相關技術的快速發(fā)展。