一、AI機器感知解決機器理解世界的問題。
1.機器視覺硬件可采集周圍環(huán)境信息
目前常用的視覺傳感器主要有:攝像頭、ToF鏡頭和激光雷達技術(shù)。
1)機器視覺相機
機器視覺相機的目的是將通過鏡頭投影到傳感器的圖像傳送到能夠儲存、分析和(或者)顯示的機器設(shè)備上??梢杂靡粋€簡單的終端顯示圖像,例如利用計算機系統(tǒng)顯示、存儲以及分析圖像。
2)激光雷達技術(shù)
激光雷達是一種采用非接觸激光測距技術(shù)的掃描式傳感器,其工作原理與一般的雷達系統(tǒng)類似,通過發(fā)射激光光束來探測目標,并通過搜集反射回來的光束來形成點云和獲取數(shù)據(jù),這些數(shù)據(jù)經(jīng)光電處理后可生成為精確的三維立體圖像。采用這項技術(shù),可以準確的獲取高精度的物理空間環(huán)境信息,測距精度可達厘米級。
3)ToF攝像頭技術(shù)
TOF是飛行時間(Time oFFlight)技術(shù)的縮寫,即傳感器發(fā)出經(jīng)調(diào)制的近紅外光,遇物體后反射,傳感器通過計算光線發(fā)射和反射時間差或相位差,來換算被拍攝景物的距離,以產(chǎn)生深度信息,此外再結(jié)合傳統(tǒng)的相機拍攝,就能將物體的三維輪廓以不同顏色代表不同距離的地形圖方式呈現(xiàn)出來。
目前ToF用在智能手機的后置鏡頭中,用來進行測距及AR應(yīng)用為主。
2.AI視覺技術(shù)算法幫助機器人識別周圍環(huán)境
視覺技術(shù)包括:人臉技術(shù)、物體檢測、視覺問答、圖像描述、視覺嵌入式技術(shù)等。
(1)人臉技術(shù):人臉檢測能快速檢測人臉并返回人臉框位置,準確識別多種人臉屬性;人臉比對通過提取人臉的特征,計算兩張人臉的相似度并給出相似度百分比;人臉查找是在一個指定人臉庫中查找相似的人臉;給定一張照片,與指定人臉庫中的N個人臉進行比對,找出最相似的一張臉或多張人臉。根據(jù)待識別人臉與現(xiàn)有人臉庫中的人臉匹配程度,返回用戶信息和匹配度,即1:N人臉檢索。
(2)物體檢測:基于深度學(xué)習(xí)及大規(guī)模圖像訓(xùn)練的物體檢測技術(shù),可準確識別圖片中的物體類別、位置、置信度等綜合信息。
(3)視覺問答:視覺問答(VQA)系統(tǒng)可將圖片和問題作為輸入,產(chǎn)生一條人類語言作為輸出。
(4)圖像描述:需要能夠抓住圖像的語義信息,并生成人類可讀的句子。
(5)視覺嵌入式技術(shù):包括人體檢測跟蹤、場景識別等。
3.SLAM技術(shù)賦予機器人更好的規(guī)劃移動的能力
SLAM,全稱叫做Simultaneous LocalizationAnd Mapping,中文叫做同時定位與建圖。在SLAM理論中,第一個問題稱為定位(Localization),第二個稱為建圖(Mapping),第三個則是隨后的路徑規(guī)劃。通過機器視覺的映射,機器人可以通過復(fù)雜的算法同時定位并繪制出位置環(huán)境的地圖,通過SLAM技術(shù)可以有效解決規(guī)劃不合理,路徑規(guī)劃無法覆蓋所有地區(qū),導(dǎo)致清潔效果一般的問題。
當完全不含SLAM的時候,由于沒有地圖沒有路徑規(guī)劃,掃地機器人每次碰到障礙物會沿著隨機方向折返,無法覆蓋到每一個區(qū)域。當有SLAM的時候,可覆蓋至任意區(qū)域。此外,掃地機器人還配備攝像頭,用來識別鞋、襪子、動物糞便等物品,達到智能規(guī)避。
4. 基于ToF機器視覺的超寬帶定位技術(shù)
機器人中,基于ToF技術(shù),主要可用來進行高精度測距與定位,目前常用的就是超寬帶定位技術(shù)。
UWB(超寬帶)是一種無線通信技術(shù),可用于高精度測距與定位。UWB 傳感器精簡設(shè)備分為標簽和基站兩種。其基本工作方式是采用TOF(Time oFflight)的方式來進行無線測距,根據(jù)測距值快速準確計算出位置。
二、AI自然語言處理是人機交互的重要技術(shù)
人類獲取信息的手段中90%依靠視覺,但表達自己的方式90%依靠語言。語言是人機交互中最自然的方式。但是自然語言處理NLP 的難度很大,在語法、語義、文化中均存在差異,還有方言等非標準的語言產(chǎn)生。隨著NLP 的成熟,人類與機器的語音交互越來越便捷,也將推動機器人向更“智能化”發(fā)展。
1. 語言技術(shù)的硬件主要依靠麥克風(fēng)和揚聲器實現(xiàn)
機器人的陣列式麥克風(fēng)和揚聲器技術(shù)已經(jīng)比較成熟,隨著近年智能音箱+語音助手的快速發(fā)展,麥克風(fēng)陣列和微型揚聲器被廣泛使用。
在鋼鐵俠陪伴機器人中,與用戶的語音交互都依靠麥克風(fēng)陣列和揚聲器,此類陪伴機器人就如同會動的“智能音箱”,拓展了邊界形態(tài)。
2.AI自然語言處理NLP 算法仍是人類未來尚需攻克的一大方向
目前對話機器人可分為通用對話機器人和專業(yè)領(lǐng)域?qū)υ挋C器人。自然語言處理的技術(shù)發(fā)展,將提升機器人與人類的交互體驗,讓機器人顯得更為“智能”。
三、AI深度學(xué)習(xí)算法幫助機器人向產(chǎn)生自我意識中進化
1. 硬件:AI芯片技術(shù)的發(fā)展,使機器人擁有更高算力
由于摩爾定律的發(fā)展,單位面積芯片容納的晶體管個數(shù)不斷增長,推動芯片小型化和AI算力的提升。
此外,異構(gòu)芯片如 RISC-V 架構(gòu)芯片的產(chǎn)生,也為AI芯片的算力提升提供了硬件支持。
2. 算法:AI深度學(xué)習(xí)算法是機器人的未來
AI深度學(xué)習(xí)算法給予機器人通過輸入變量學(xué)習(xí)的能力。未來的機器人能否擁有自主意識,需要AI技術(shù)的不斷發(fā)展。
深度學(xué)習(xí)算法給機器人獲得自我意識提出了一種可能性。通過對神經(jīng)網(wǎng)絡(luò)模型的訓(xùn)練,一些算法已經(jīng)可以在單點的領(lǐng)域超越人類,AlphaGo 的成功,讓我們看到人類在AI技術(shù)中,已可實現(xiàn)單類別的自我學(xué)習(xí)能力,并在一些領(lǐng)域,如“圍棋、德州撲克、知識競賽”等單個領(lǐng)域已經(jīng)可以媲美甚至打敗人類。
AI深度學(xué)習(xí)算法,使機器人擁有了智能決策的能力,擺脫了之前單一輸入對應(yīng)單一輸出的編程邏輯,也讓機器人更加“智能”。
但是,機器人在“多模態(tài)”領(lǐng)域,仍無法與人類媲美。特別是如嗅覺、味覺、觸覺、心理學(xué)等無法量化的信號,仍未能找到合理的量化方式。
未來來看,多模態(tài)將是人工智能的未來。
四、AI+5G拓展機器人的活動邊界,提供更大算力和更多存儲空間,形成知識共享
1.4G時代,移動機器人的四大痛點
哈爾濱工業(yè)大學(xué)的朱曉蕊教授看來,現(xiàn)在的移動機器人存在四大痛點:
1) 工作范圍受限:只能在固定的范圍內(nèi)執(zhí)行任務(wù),構(gòu)建的地圖不便于共享,難以在大尺度環(huán)境下工作。
2) 業(yè)務(wù)覆蓋受限:運算有限,識別性能仍需提升;能力有限,僅能發(fā)現(xiàn)問題,難以快速批量部署。
3) 提供服務(wù)受限:復(fù)雜業(yè)務(wù)能力差,交互能力有待提高,特種業(yè)務(wù)部署效率低。
4) 運維成本高:部署效率低,每個場景都需構(gòu)建地圖,規(guī)劃路經(jīng),配備巡檢任務(wù)等。
這四大痛點,制約了移動機器人在4G時代的滲透??傮w來說,就是機器人仍需要更多的存儲空間和更強的運算能力。5G的低延時、高速率、廣連接將能夠解決目前的這些痛點。
2.5G對于移動機器人的賦能:
1)拓展機器人的工作范圍
而5G對于機器人的最大賦能就是拓展了機器人的物理邊界,5G對于TSN(時間敏感網(wǎng)絡(luò))的支持,使機器人的活動邊界從家庭走向社會的方方面面。
我們大可以想象未來人類與機器人共同生活的場景。在物流、零售、巡檢、安保、消防、指揮交通、醫(yī)療等方面,5G和AI都能夠賦能機器人,幫助人類實現(xiàn)智慧城市。
5G將推動遠程手術(shù)機器人的發(fā)展:
· 2008年12月18日,利用華為和聯(lián)通搭建的5G網(wǎng)絡(luò),解放軍醫(yī)院完成了世界首例基于5G通信技術(shù)的遠程機器人手術(shù)動物實驗。
· 5G+手術(shù)機器人將幫助醫(yī)生完成一對多,多對一的手術(shù),并且手術(shù)覆蓋多場景。
2)為機器人提供更大算力和更多存儲空間,形成知識共享
5G對云機器人的推動,為機器人提供更大算力和更多存儲空間:
· 彈性分配計算資源:滿足復(fù)雜環(huán)境中的同步定位和制圖。
· 訪問大量數(shù)據(jù)庫:識別和抓取物體;基于外包地圖的長期定位。
· 形成知識共享:多機器人間形成知識共享。