您好, 訪客   登錄/注冊

AGV視覺導航技術研究進展

來源:用戶上傳      作者:

   摘  要:概述了AGV的主要導航方式,分析了目前國內外AGV固定路徑視覺導航與柔性路徑視覺導航技術的研究現狀,并指出該領域在今后一段時期內的一些重要的研究方向。
   關鍵詞:AGV;視覺導航;研究進展
    中圖分類號:F253.9    文獻標識碼:A
  Abstract: The main types of navigation techniques of AGV were briefly reviewed, and the current research status of AGV vision navigation technology on fixed path and flexible path were described. Moreover, some important researcher directions in the future in the domain were also pointed out.
  Key words: AGV; vision navigation; research progress
  0  引  言
   自動導引小車(Automated Guided Vehicle,AGV)指裝備有導引裝置,能夠按照規定路徑行駛,并具有編程與停車選擇、安全保護及各種移載功能的運輸小車。AGV技術集機械、機電控制、傳感器、無線通訊、計算機網絡等學科的技術于一體,目前已廣泛應用在工業、農業、軍事、醫療等多個領域,是當前國際機器人應用研究領域的熱點之一[1-2]。
    導航技術是AGV技術的研究核心,其主要解決車輛位姿獲取、環境模型構建以及行駛路徑規劃等三方面問題,即要告訴小車“在何處”、“到何處去”,以及“如何走”[3]。目前,國內外主流AGV導航方式可分為固定路徑導航和柔性路徑導航兩類。其中,固定路徑導航法需要在運行路徑上預先設置引導物質,如軌道、黑白膠帶、磁帶或電磁導線等,通過傳感器獲取引導物質的位置來引導AGV,該類技術相對成熟,是國內AGV采用的主流導航方法,但該類技術無法滿足運行路徑需經常調整的情況。柔性路徑導航法可根據需要實時規劃導引路徑并引導AGV運動,是AGV導航技術的發展趨勢,目前應用較多的有激光引導技術、慣性導航技術、基于WIFI或ZigBee等無線信號定位的導引技術及視覺導航技術等。各種導航方法具有不同的優缺點,一般需要根據實際情況選擇合適的方案[4-6]。
    近些年來,隨著芯片性能和數字圖像處理技術的不斷提升,視覺導航技術發展更為迅速。視覺導航利用AGV車載攝像頭動態獲取環境圖像,經過圖像檢測獲取導航參數(小車位置、速度、姿態等),并規劃所需路徑、實現對小車的導航控制。目前,視覺導航技術在固定路徑導航和柔性路徑導航方面均有比較廣泛的應用。
  1  AGV固定路徑視覺導航技術研究
    AGV固定路徑導航技術亦稱結構化路徑導航技術,指AGV在行駛過程中利用車載視覺傳感器實時獲取鋪設在路面或工作空間內軌跡標志的圖像,依據控制車體的圖像特征點與導引軌跡輪廓中心線間的偏差,以及車體前進方向與軌跡中心線的角度偏差,引導車體在允許的誤差范圍內沿導引軌跡運動。該導航方式導引線易于鋪設、視覺識別穩定性高,擁有廣泛的應用空間。
    歐美國家在該領域起步較早,研究成果較多,處于領先地位。日本在20世紀80年代研制的“Pochi”機器人可利用攝像機采集路面的白色標記線,作為路標信息進行作業[7]。美國卡內基·梅隆大學(CMU)研制的 RALPH,能夠通過識別車道標識線和分析路面信息實現自主導航的功能,研制的NAVLAB利用了神經網絡技術,進一步提高了其智能化程度[8-10]。Saitoh T等[11]研究了一種采用單目攝像頭和筆記本電腦實現的輪式移動機器人走廊中線跟蹤方法。Horswill I[12]采用單目視覺提取地面紋理,實現了車體在固定環境下的視覺導航。D.L.Boley等[13]利用車載攝像機和輔助傳感器通過識別路標進行導航,并利用卡爾曼濾波器進行最優估計,有效抑制了噪聲并具有較好的實時性。
    我國在該領域起步較晚,但發展較快,近些年相繼涌現出一大批相關研究成果。吉林大學研制的JUTIV-3型視覺導引AGV,可通過車載攝像頭采集地面鋪設的色線和標識符圖像,經處理后獲取導航參數,并通過模糊控制器使車體實時跟蹤色線運行,同時具有識別工位標識符與分叉路等功能[14]。南京航空航天大學研制的NHV-Ⅱ型視覺導航AGV,通過構建直線路徑模型、圓弧拐彎路徑模型和非圓弧拐彎路徑模型等三種路徑模型,實現了對AGV的精確控制[15]。劉晶等[16]設計的基于FPGA+ARM的輪式機器人,可通過識別道路中設置10cm寬的導航線以及轉彎標志,實現自主導航行走。朱翔等[17]設計的基于FPGA+FIFO的移動機器人視覺導航系統,可根據行走趨勢的變化改變車體行進速度,提升了導航精度。
  2  AGV柔性路徑視覺導航技術研究
    AGV柔性路徑導航技術基于對場景中景物的理解獲取導航參數,可稱為非結構化路徑導航技術。其需要預先構建路徑周圍環境的圖像數據庫,在車體運行過程中,系統實時地通過車載攝像頭捕捉周圍環境信息,并與前述圖像數據庫進行匹配,得出車體當前的位姿信息,進而進行路徑規劃并控制車體運行。該類視覺導航方式無需預先鋪設路徑、適用范圍更廣,但同時存在路徑形狀復雜、邊界模糊、易受光照變化和路面陰影干擾等諸多問題,因而對硬件性能、圖像處理算法和導航控制算法等提出了更高的要求。
    美國Kiva公司的Kiva系統,可控制AGV通過視覺識別地面上的二維碼貼片信息,實現路徑規劃與導航[18]。Wooden D[19]研制的LAGR機器人中采用了一種基于立體視覺的占柵格地圖構建方法進行室外導航,系統中還集成了慣性導航單元、GPS接收器和前端防碰撞單元來進行外界感知。Ohta Y I等[20]利用車載攝像機采集圖像信息,并借助超聲波傳感器感知復雜路況信息,對導航信號進行了合理的濾波處理,解決了基于視覺導航系統中的避障問題。Hashima M等[21]提出了一種自然地標導航算法,該算法使用相關性跟蹤選定的地標, 通過立體視覺信息計算車體位置,并在車體移動過程中逐步更新地標。Royer等[22]提出了一種基于單目視覺訓練導航方法,該方法在導航前先進行訓練,訓練過程中系統記錄行進中圖像信息并生成環境三維地圖、標記有價值的地標用于導航階段的定位;自主導航過程中,通過匹配當前圖像與預先存儲的關鍵幀圖像進行定位、導航;該系統較適合用于有較多明顯地標的環境。     國內在該領域起步較晚,但隨著研究學者和商業公司的研究投入,該領域也得到了快速發展。付夢印等[23]提出了一種以踢腳線為參考目標的移動機器人室內單目視覺導航方法,該方法采用閾值分割和以Hough變換為基礎的直線提取方法,提高了視覺導航的實時性。周俊等[24]針對非結構化的農田自然環境,提出了一種農業機器人視覺導航多分辨率路徑識別算法。閔華松
  等[25]提出了一種將IMU和體感攝像機相結合的地圖構建算法,提高了地圖的精度。龍超等[26]利用增量平滑和優化建圖的方法估算相機位姿,并獲取最終的點云地圖和運動軌跡。白明等[27]利用立體視覺傳感器構建了環境地圖以用于機器人導航。李華等[28]研制的THMR-V型AGV,通過機器視覺算法檢測車體與行車道的相對位置與方向信息,并結合多種傳感器融合檢測實現在結構化道路環境中自主行駛。2015年12月首次進行公路測試的百度無人車采用激光雷達和視覺傳感器相結合的方法,通過深度學習技術實現車輛的地圖構建和導航。
  3  研究展望
    AGV導航技術涉及自身定位、環境感知、地圖構建、路徑規劃等多方面問題。視覺導航雖具有路徑設置維護簡便、不易受電磁場干擾、對工作環境要求較低、智能化水平較高等優點;但同時也存在易受環境變化影響、數據運算量大、圖像處理過程復雜等缺陷。如何提高AGV視覺導航系統的實時性、魯棒性和實用性,一直是該領域專家學者努力追求的目標。近些年來,隨著機器視覺軟硬件技術的發展,AGV視覺導航技術領域不斷涌現出一些如基于人工智能算法的路徑識別技術、視覺組合導航技術、SLAM視覺導航技術等高新技術。
  3.1  基于人工智能算法的路徑識別技術
    在非結構化環境中,實現AGV視覺導航的關鍵是提高其環境認知和自主探索能力。深度學習、支持向量機、神經網絡、模糊算法、遺傳算法、聚類算法等人工智能算法是實現對環境準確感知的有效途徑。近年來,國內外諸多研究者開始將人工智能算法應用與非結構環境中的路徑區域識別。
    Lee等[29]采用尺度不變特征變換、加速穩健特征等算法描述了導航區域的局部環境特征,并研究了移動機器人室外自定位和路徑信息識別方法。Song等[30]在模糊C均值聚類算法中引入圖像區域影響因子,并將其用于非結構化導航路徑的檢測,一定程度的提高了路徑識別的準確率,具有較高的理論和實用價值。Stanley等[31]將神經網絡加入到視覺導航中,其以圖像特征的變化來反映機器人的位置變化,以經過神經網絡訓練的圖像特征構建機器人雅可比矩陣的逆陣。Choomuang R等[32]將卡爾曼濾波和模糊控制應用到機器人導航算法中,利用卡爾曼濾波對機器人的運動進行預測,采用模糊控制實現機器人運動的魯棒控制,使機器人的導航算法有了突破性的進步。
   任永新等[33]提出了一種基于模糊控制的實時路徑規劃和跟蹤方法,通過訓練神經網絡對圖像進行分割,獲取導航預瞄點,得到車體運動的角度偏差和橫向偏差,該方法對曲線路徑的跟蹤誤差較小。周值宇等[34]提出了一種基于支持向量機的道路兩旁植被的檢測方法,較好地解決了非結構化環境中的植被檢測問題,針對光照、路況等變化具有較強的抗干擾能力。趙立明等[35]研究了一種基于模糊粗糙集理論的非結構化路徑識別算法,該算法基于粗糙集方法預定義路徑、非路徑和模糊邊界,通過融合模糊競爭機制對圖像不確定區域的像素進行了模糊重分類,精確描繪了導航路徑并引導車體行進。
  3.2  視覺組合導航技術
   視覺組合導航技術是將視覺導航與傳統的慣性、GPS、激光等導航技術有機結合,以實現優勢互補,提高系統的控制精度、實時性和魯棒性。該技術是解決視覺導航存在的數據處理量大、易受光照環境影響等缺陷的重要途徑,也是目前AGV導航的重要創新方向。
    諸多學者已在該領域進行了大量的探索,并取得了令人鼓舞的成果。夏凌楠等[36]研究了一種結合視覺里程計與慣性傳感器進行定位的方法。張曉霞等[37]應用GPS/DR組合導航信息技術,并結合航位推算系統、擴展卡爾曼濾波實現了AGV的定位導航。李澤民等[38]設計了諸多傳感器融合的慣性導航AGV模擬系統;錢曉明等[39]設計了一種基于激光雷達與射頻掃描儀的定位方法。
    ??禉C器人公司研制的阡陌倉儲機器人及歐鎧公司研制的小精靈機器人,均采用了二維碼視覺+慣性組合導航技術,實現了自主定位、自動避障、自主路徑規劃等功能,有效提高了作業效率[1]。
  3.3  SLAM視覺導航技術
   AGV的SLAM(Simultaneous Localization and Mapping)視覺導航技術是指,AGV在未知環境中運動過程中,利用車載攝像頭依據對周圍環境的感知進行自身定位,同時增量式構建環境地圖。SLAM技術不需要預先鋪設任何軌跡,方便導航路線的更改,并實現實時避障,有助于提高AGV的自主能力與環境適應能力,并實現多AGV的協調控制。
    Sim及其合作者[40-42]在這一領域取得了顯著的研究成果:提出了一種通過地標特征進行機器人定位的方法,論述了地圖繪制的最大化覆蓋、準確性及最小化測距不確定性問題;并進一步研究了一種基于雙目立體相機和粒子濾波器的SLAM視覺導航方案, 系統通過三維地標進行定位,并繪制障礙網格圖,以保證導航的安全性。Mur Artal等[43]提出了一種可以實現室內SLAM的ORB-SLAM方法,該方法提取圖像關鍵幀進行配準,能夠快速高效對地圖中特征點的檢索與匹配。
    新松機器人公司研制的基于激光SLAM技術的“移動搬運平臺”,可在高度動態環境下提供迅速的、可追蹤的輸送流程,進行智能化、高精度的自動導航,并躲避障礙、依據任務選擇最佳行進路徑。艾瑞思機器人公司研制的SLAM導航移動機器人,可以未知環境中獲得感知信息,實時創建周圍環境地圖,并主動避障、自主導航。該兩款機器人在CeMAT ASIA 2017展會上獲得了普遍關注[1]。   4  結  論
    本文在分析AGV視覺導航技術國內外研究現狀的基礎上,進一步總結了該領域目前重要的研究熱點方向。AGV視覺導航技術是一種正在快速發展、不斷成熟的新型技術,相關領域新技術的出現都有可能對其研究帶來突破性進展,因而在研究的同時,應密切關注相關學科的發展。
  參考文獻:
  [1] 張穎川. AGV導航技術的創新路徑[J]. 物流技術于應用,2018(7):66-69.
  [2] 李磊,葉濤,譚民. 移動機器人技術研究現狀與未來[J]. 機器人,2002,24(5):475-480.
  [3] 鄧劍文,安向京,賀漢根. 基于道路結構特征的自主車視覺導航[J]. 吉林大學學報(信息科學版),2004,22(4):415-419.
  [4] 侯志強,韓崇昭. 視覺跟蹤技術綜述[J]. 自動化學報,2006,32(4):603-617.
  [5] 趙熙俊,陳慧巖. 智能車輛路徑跟蹤橫向控制方法的研究[J]. 汽車工程,2011,33(5):382-387.
  [6] 李進,陳無畏,李碧春,等. 自動導引車視覺導航的路徑識別和跟蹤控制[J]. 農業機械學報,2008,39(2):20-24.
  [7]  Komori T, Ariga R, Nagata S. A New Gear Profile Having Zero Relative Curvature at Many Contact Points (Logic Tooth Profile)[C] // International Power Transmission and Gearing Conference. ASME, Chicago, 1989:599-606.
  [8]  Thorpe C, Hebert M H, Kanade T, et al. Vision and navigation for the Carnegie-Mellon Navlab[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 1988,10(3):362-373.
  [9]  Pomerleau D. RALPH: Rapidly adapting lateral position handler[C] // Proceedings of the Intelligent Vehicles Symposium, 1995:506-511.
  [10]  Baluja S. Evolution of an artificial neural network based autonomous land vehicle controller[J]. IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), 1996,26(3):450-463.
  [11]  Saitoh T, Tada N, Konishi R. Indoor Mobile Robot Navigation by Center Following Based on Monocular Vision[J]. Ieej Transactions on Electronics Information & Systems, 2008,129(8):1576-1584.
  [12]  Horswill I. Specialization of Perceptual Processes[D]. Phd Thesis Mit, 1994.
  [13]  Boley D L, Sutherland K T. A Rapidly Converging Recursive Method for Mobile Robot Localization[J]. International Journal of Robotics Research, 1998,17(10):1027-1039.
  [14] 儲江偉,王榮本. 基于機器視覺引導的兩輪差速轉向AGV控制問題的研究[J]. 機械與電子,2002(5):51-55.
  [15] 喻俊,樓佩煌,錢曉明,等. 自動導引車視覺導引路徑的識別及精確測量[J]. 華南理工大學學報(自然科學版),2012,40(3):143-149.
  [16] 劉晶,劉鈺,陸雨花. 基于FPGA+ARM的視覺導航輪式機器人[J]. 計算機工程,2010,36(21):194-198.
  [17] 朱翔,潘崢嶸. 基于OV7620的機器人視覺導航系統設計[J]. 電子測量技術,2010,33(1):64-73.
  [18]  Tutton S M, Pflugmacher R, Davidian M, et al. KAST study: the Kiva system as a vertebral augmentation treatment-a safety and effectiveness trial[J]. Journal of Vascular & Interventional Radiology, 2014,25(3):111.
  [19]  Wooden D. A guide to vision-based map building[J]. Robotics & Automation Magazine IEEE, 2006,13(2):94-98.   [20]  Ohta Y I, Kanade T, Sakai T. Color information for region segmentation[J]. Computer Graphics & Image Processing, 1980,13(3):222-241.
  [21]  Hashima M, Hasegawa F, Kanda S, et al. Localization and obstacle detection for robots for carrying food trays[C] // IEEE/RSJ International Conference on Inteiligent Robot and Systems, 1997.
  [22]  Royer E, Lhuillier M, Dhome M, et al. Monocular Vision for Mobile Robot Localization and Autonomous Navigation[J]. International Journal of Computer Vision, 2007,74(3):237-260.
  [23] 付夢印,譚國悅,王美玲. 一種基于單目視覺的移動機器人室內導航方法[J]. 光學技術,2006,32(4):591-597.
  [24] 周俊,姬長英. 農業機器人視覺導航中多分辨率路徑識別[J]. 農業機械學報,2003,34(6):120-123.
  [25] 閔華松,楊杰. 融合IMU的RGBD-SLAM算法改進研究[J]. 計算機工程與設計,2015,36(1):120.
  [26] 龍超,韓波,張宇. 基于Kinect和視覺詞典的三維SLAM[J]. 計算機應用,2016,36(3):774-778.
  [27]  Bai M, Zhuang Y, Wang W. Stereovision based obstacle detection approach for mobile robot navigation[C] // Intelligent Control and Information Processing (ICICIP), 2010 International Conference on. IEEE, 2010:328-333.
  [28] 李華,丁冬花,何克忠. THMR-V導航控制算法的研究[J]. 機器人,2001,23(6):525-530.
  [29]  Lee H, Park J, Chung W. Localization of Outdoor Mobile Robots Using Curb Features in Urban Road Environments[J]. Mathematical Problems in Engineering, 2014(4):1-12.
  [30]  Song H, He D, Xin X. Unstructured road detection and obstacle recognition algorithm based on machine vision[J]. Transactions of the Chinese Society of Agricultural Engineering, 2011,27(6):225-230.
  [31]  Stanley K, Wu Q M J, Jerbi A, et al. Neural Network-Based Vision Guided Robotics[C] // IEEE International Conference on Robotics & Automation. IEEE, 2002.
  [32]  Choomuang R, Afzulpurkar N. Hybrid Kalman Filter/Fuzzy Logic based Position Control of Autonomous Mobile Robot[J]. International Journal of Advanced Robotic Systems, 2008,2(3):207-213.
  [33] 任永新,李偉,陳曉. 非結構環境下基于機器視覺的機器人路徑跟蹤方法[J]. 北京工業大學學報,2008,34(10):1021-1025.
  [34] 周植宇,楊明,薛林繼. 一種基于高斯核支持向量機的非結構化道路環境植被檢測方法[J]. 機器人,2015,37(6):702-707.
  [35] 趙立明,葉川,張毅,等. 非結構化環境下機器人視覺導航的路徑識別方法[J]. 光學學報,2018,34(8):1-10.
  [36] 夏凌楠,張波,王營冠,等. 基于慣性傳感器和視覺里程計的機器人定位[J]. 儀器儀表學報,2013,34(1):166-172.
  [37] 張曉霞,汪傳龍,韓劉柱,等. AGV用GPS/DR組合導航信息融合[J]. 沈陽建筑大學學報(自然科學版),2011,27(1):173-177.
  [38] 李澤民,段鳳陽,李贊平. 基于MENS傳感器的數字式航姿系統設計[J]. 傳感器與微系統,2012,31(6):94-100.
  [39] 錢曉明,張浩,王曉勇,等. 基于激光掃描匹配的移動機器人相對定位技術研究[J]. 農業機械學報,2016,47(3):14-21.
  [40]  Simr, Dudekg. Learning Generative Models of Scene Features[J]. International Journal of Computer Vision, 2004,60(1):45-61.
  [41]  Simr, Dudekg. Effective Exploration Strategies for the Construction of Visual Maps[C] // Proceedings of the 2003 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2003:3224-3231.
  [42]  Simr, Littlejj. Autonomous Vision-Based Robotic Exploration and Mapping Using Hybrid Maps and Particle Filters[J]. Image and Vision Computing, 2009,27(1/2):167-177.
  [43]  Mur-Artal R, J. D. Tardos. ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras[J]. IEEE Transactions on Robotics, 2017,33(5):1255-1262.
轉載注明來源:http://www.hailuomaifang.com/8/view-14913454.htm

?
99久久国产综合精麻豆