中研院全世界最快物件偵測 精準揪出超速

中研院研究團隊研發出目前世界上最快最準的物件偵測演算法YOLOv4,應用於交通車流解決方案,在路口就能即時偵測車輛、停等車列及車速(圖攝於桃園)。(中研院提供)
中研院研究團隊研發出目前世界上最快最準的物件偵測演算法YOLOv4,應用於交通車流解決方案,在路口就能即時偵測車輛、停等車列及車速(圖攝於桃園)。(中研院提供)

【記者徐翠玲/臺北報導】

中研院資訊科學研究所特聘研究員廖弘源、博士後研究員王建堯與與俄羅斯開發者博科夫斯基合作,研發出目前世界上最快最準的物件偵測演算法YOLOv4,平均正確率達43.5%,比前一代YOLOv3提高10%,一舉超越其他種影像辨識技術。同時也與義隆電子合作開發「智慧城市交通車流解決方案」,目前已布設於桃園、新竹等地,在路口就能進行交通影像辨識及車流分析,甚至一眼就能揪出是否超速。

中研院指出,YOLOv4是一種利用人工智慧執行即時物件偵測的技術,能偵測物件、追蹤及判斷,可應用於交通車流計算、自駕車研發、工廠瑕疵檢測、醫療影像分析、五官定位等。自4月以開放原始碼免費釋出後,全世界已有數萬人測試應用。

YOLO是You only look once的簡稱,自2015年推出第一代版本後,深受開發者喜愛,為電腦視覺技術立下重要的里程碑。廖弘源研究團隊改良後的YOLOv4性能更強大,經微軟開源影像資料庫(MSCOCO)測試,辨識物件的速度及精確度皆大幅提升,堪稱是目前世界上辨識速度最快、最精準的物件偵測演算法。

王建堯說,物件偵測技術追求速度和精準,二者缺一不可,卻難以兼備。他從去年開始改良YOLOv3,一改過去多採「降速求控球」,即降低或犧牲速度來換取準確度提升;轉而從YOLO所運行的人工智慧模型著手,改善網路識別物件的回傳機制,優化傳輸路徑,以減少演算法的計算量,因此能增加運算內容的多樣性及運算速度。

王建堯的成果引起YOLO網路架構維護者博科夫斯基(Alexey Bochkovskiy)的興趣,主動聯繫王建堯,雙方自去年11月攜手合作,經過5個多月日以繼夜地開發,今年4月宣布完成新一代的YOLOv4演算法。

深度學習演算法的計算複雜度高,YOLOv4也突破過去的技術限制,擁有輕盈的系統架構、高效率的演算法等優勢,使用一般的圖形處理器就能運算,「像是用算盤打出計算機的速度。」王建堯表示,團隊的開發初衷,即希望打造一個親民、好用的偵測系統,降低硬體成本,讓每個人都能以此技術創造更多有趣的應用。

廖弘源指出,YOLOv4使用的關鍵技術源自該團隊承接科技部人工智慧專案計畫,與義隆電子合作開發的「智慧城市交通車流解決方案」。為建置智慧車流分析系統,需要結合影像感測器和電腦視覺,在每個路口就能即時偵測車輛、停等車列及車速。團隊藉由著手改良YOLO演算法,發展更輕量、精準、快速的物件偵測核心技術,以實際應用於交通影像辨識。

延伸閱讀
中研院發現花朵受孕關鍵
2020年06月23日 | 4年前
最愛研究 陳建仁棄禮遇回中研院
2020年05月14日 | 4年前
15分鐘快篩試劑 已量產
2020年04月23日 | 4年前
取消