運用機器視覺技術 建構機器人系統視覺空間
為了使機器人有效率地運作,機器人必須建構環境空間數據,透過運動控制避免行動或動作碰撞到環境障礙物,除可運用各式感測器達到障礙物位置測量外,使用進階機器視覺搭配深度辨識技術,也可建構具深度視覺空間的應用條件。
機器視覺運用於自動化檢測、自動生產設備已相當常見,隨著相關技術持續優化,加上嵌入式處理器性能提升,機器人設備導入機器視覺應用,採行視覺引導機器人(Vision Guided Robotics)的相關硬體、技術與元件效能門檻降低,也能提供現有多種空間感測元器件外的設計應用更多選擇。
機器人工作更趨多元 高彈性的環境感測需求高
隨著生產應用賦予機器人的工作越來越多元,以往機器人生產設備大多僅使用固定式的機器手臂,取代產線定點加工站的規律性插拔件、鎖螺絲與組裝加工程序,或是透過機器視覺進行簡單的料件檢測、分檢動作,雖然在高速化加工應用與高精準度檢測應用已獲得相當具體的成果,但隨著機器人整合承載運動平台,搭配更高自由度(Degree of Freedom;DOF)的機器人設備時,原有採固定式運作的自動化應用機器人,即便可使用實體圍籬或電子圍籬建構安全操作區,但高自由度的機器人設備可能在顧及安全性部分,就無法搭配實體或電子圍籬使用。
而為建構高自由度機器人設備更完整的環境空間資訊,一般會使用各種感測器整合分析運作空間,例如,整合超音波、雷射測距、機械式微動開關...等,但單一感測器可能會因為受限感測原理限制,而會有空間、角度、距離與精確度等空間感測差異,而設置過多感測器也會有成本與處理負荷問題。然而,採行高經濟價值、高效能的機器視覺技術,反而可以有效優化機器人設備建構空間資訊的較佳方案。
影像感測加深度辨識 以機器視覺測定環境空間
尤其是運用深度辨識的影像感測器整合,可以針對影像感測器取像範圍的空間進行大幅度的空間深度測定,取得數據後在於動作控制端進行操作範圍限制,避免高自由度的機器人動作失準敲擊到周邊設備或是工作人員,降低機器人運作可能產生的設備損傷或人員安全問題,透過高效能、高精準度的機器視覺感測模組整合,進而建構更接近理想機器人設備的高自主性設計方向。
在早期受限感測科技、機器人控制技術限制,初期的機器人或自動化生產設備,大多採用較精簡的機制進行機器手臂或自動加工設備的空間感知與控制臂定位,例如,使用紅外線感測器建構電子圍籬,讓機器人在限制範圍中運作與進行動作協調,或是利用設於乘載平台周邊的微動開關,當碰撞發生時透過微動開關的on/off動作反饋系統載具出現障礙物撞擊、需進行路徑變更或是調整巡航方向,稍微先進一點的機器人乘載設備,則會在行進過程同步進行路徑記錄測繪,避免重複進行同一路徑程序,運用AI人工智慧提升路徑尋跡的行進效率。
進階機器視覺應用 讓機器人有類似雙眼的空間識別
但在發展高自由度機器人設備時,傳統的感測或是測距方案就會顯得處理能力受限,甚至影響機器人對於環境空間定位與掌握能力,反而是透過攝影機機器視覺模組搭配影像分析,若在影像深度辨識與智能空間分析的能力可以大幅優化,在視覺處理器與機器視覺演算法的輔助下,機器人系統也可能做到如人類雙眼的空間辨識、環境識別應用目標,而在嵌入式系統加上高效能處理晶片整合,機器視覺整合應用的複雜度也能相對降低許多。
然而,在機器視覺技術領域上,其實攝影模組的硬體水準已能達到應用需求,解析度表現極佳、體積與數據儲存、分析的效能已可應付巨量影像分析所需的效能要求,機器視覺的空間測定與機器人運動控制整合較大的發展瓶頸,反而是在機器視覺的軟體技術問題,例如,用以判定一組或多組環境影像的深度空間分析來判定機器人的方向、位置的演算法,不僅複雜度相當高,還必須同時進行多個特定目標進行機器人動作控制聯動,優化大量影像分析的演算法,就成為整個機器視覺系統能否成功關鍵。
影像分析辨別演算法優化 提升機器視覺導入價值
在系統實際處理大量環境影像,其實能將大量數百萬像素的圖點構成環境圖像,預先轉換成特徵數據,一來可以大幅縮減環境影像的感測數據量,一方面也可縮短視覺數據傳輸時間,讓智能影像系統可以加速環境空間建模程序,甚至達到快速提供機器人動作的驅動數據,讓機器人動作可以自主判斷執行互動。
影像特徵優化若等到所有影像數據都匯集到中央控制單位再進行特徵圖像轉換,大量的影像數據傳輸與影像特徵分析勢必會拖慢整個環境建模速度,甚至導致機器人動作反應體驗不佳,較合理的作法可善用設置於攝影模組端的嵌入式系統,預先在動態影像擷取同時以極短時間內進行影像特徵化處理,數據大幅減少的圖像特徵傳送至機器人核心動作分析才能有效進行動作判斷。
除預先將大量影像透過特徵轉換,取得相對容易傳輸、分析的特徵數據,在於特徵數據上以多種影像分析演算法,轉換成機器人的空間環境,例如運用最大穩定極值區域(Maximally Stable Extremal Regions;MSERs)、加速穩健特徵(Speeded Up Robust Features;SURF)演算法,或利用Harris/Shi-Tomasi角點檢測法,或最佳化追蹤點(Good Feature To Track)角點檢測法搭配特徵點追蹤演算,達到以兩組攝影鏡頭獲取目標物圖像、特徵點追蹤、提取的設計需求。
取像模組整合DSP、GPU、嵌入式處理器 優化環境空間辨別效能
機器視覺應用於機器人的技術門檻其實相當高,若是設置於固定位置類型的機器手臂、自動化加工站,機器視覺進行的辨識與需處理的操作動作相對單純,但若是具移動能力的機器人,運動範圍、環境障礙會因為移動位置的不同而產生變化,每次動作進行前就必須完成安全工作區的感測與分析動作,若透過傳統感測器進行不僅效果有限、運作效能也備受考驗,反而是機器視覺可以快速、大範圍完成操作環境分析,進而映射可以進行自主運行的動作安全區,優化機器人設備的反應速度、同時也可用低成本達到所需的環境空間感測需求。
但影像擷取模組每秒鐘會產生超過百萬像素的圖像資料,如果直接將影像送到中央處理器進行解析與空間建模,勢必會因傳輸與儲存媒介效能等問題,影響設備成本、設置價值,常見方法為先將圖像於擷取終端進行畫素特徵分析,將空間拍攝的影像轉換成點、角、邊線或是面等數據,從2D搭配深度影像分析轉換至具空間特徵的3D數據。當百萬像素的圖像透過演算法處理成大量環境特徵數據後,即可搭配特徵資料庫運用演算法使機器人可快速辨識圖像或認知物體,而此辨識系統則需要大量參考數據預先置入資料庫、讓系統快速比對,否則將影響檢測目標或是空間辨別的準確度。
前述影像繁複的傳輸與演算法處理,針對擷取影像進行如圖像縮放、色彩空間轉換、影像翻轉、影像旋轉、色調加強、伽瑪校正(Gamma correction)、對比強化等處理,對CPU將造成極大負荷,實作通常使用嵌入式處理器、DSP、GPU等硬體影像加速方案搭配,優化機器視覺的影像處理效能,不讓龐大的影像分析、數位資料處理成為整個自動化系統的應用門檻。