業界出題學界解題打造YOLOR世界第一物件偵測技術
人工智慧近年來不僅在技術面及應用面出現許多突破,學界、業界及政府機構間的通力合作,更是蔚為佳話。在2018年1月到2021年12月期間,中研院承接科技部的人工智慧專題研究計畫,在依循科技部的「業界出題,學界解題」原則,及國研院國網中心的算力資源協助下,中研院資訊所特聘研究員廖弘源、資創中心人工智慧專題中心執行長吳毅成、資訊所林仁俊教授及資訊所博士後研究員王建堯博士及魏文麗博士共同努力,順利解決義隆電子提出偵測並計算車流的需求,先是在2020年設計出舉世聞名的YOLOv4系列,今年5月更發展出獨步全球的YOLOR(Your Only Learn One Representation:Unified Network for Multiple Tasks)物件偵測技術。
YOLOR在精度不變的情況下,推論速度比上一版Scaled-YOLOv4足足提升194%。截至2021年10月20日止,YOLOR系列名列 real-time object detection on coco 資料集世界排名1、2、3名,就連曾以AlphoGo聲名大噪的Google團隊也只能屈居5、7、9名,可望在電動車產業的發展中,扮演舉足輕重角色。
中研院資訊所特聘研究員廖弘源表示,「業界出題,學界解題」模式的好處在於,這些題目是業界真正面臨的問題且需解決,經由學界的專業判斷及建議,可選擇出真正有價值的問題,並集中資源去解決。
義隆電子因擔心資料傳輸量太大,雲端設備昂貴且效率低,不希望在路口錄到的視訊傳回雲端處理,經由中研院研發的YOLOv4,用軟體(演算法)取代硬體,採用成本較低及製程更加成熟的晶片,在設備端點(Edge)解決問題。
也因為資料不需要在雲端間傳輸,就不用擔心傳輸品質不穩或是洩密的問題,加上每一個設備端點的資料可互相傳遞,資料內容即時變化,只要改用增強式學習,便可在設備端點直接互傳訊息,進而動態調整各項控制訊號,而不需送到雲端處理完成再送回來。
中研院資訊所博士後研究員王建堯表示,由於人工智慧的計算量非常大,影像辨識動輒需要辨識數百萬張影像,若使用中研院自己的設備,訓練一次就要耗費兩個月,物件偵測訓練要兩個多禮拜,為完成一個模型訓練約需三個月時間,而且要等到驗證完成,才能做下一個驗證,若想開發更好的模型,則需曠日廢時。
因此中研院開始跟國網中心合作,使用超級電腦進行演算法開發及模型訓練,過去需要兩個禮拜的運算訓練時間,現在已縮短到四天即可完成。不僅取得訓練資源的優化,同時團隊成員的工作效率也大大提升。
在國網中心算力資源的加持下,為廖弘源團隊成員節省更多寶貴時間,因此讓團隊有更充裕時間去設計更多新的想法。如YOLOR系列目前在real-time object detection on coco資料集世界排名第一名的研究,正是因為有國網中心的算力協助,將原本需要一年的開發時間,縮短到兩個月。
廖弘源更表示,下一步要開始發展多物件追蹤,如廣場的群眾各自會往什麼地方走,但因為群眾彼此會遮蔽,所以要提取各種特徵來判斷,會比偵測演算有更多的困難問題要解決,但廖弘源相信,在團隊成員及國網中心的算力支援下,絕對有信心完成下一個突破。
文章來源:本文擷取自DIGITIMES。