image
20190613彭媁琳/台北報導

交大團隊自駕車圖資 奪先機

 2025年全球自駕車相關產值預估上看420億美元,交大電子所教授郭峻因結合AI人工智慧與自駕車開發「嵌入式AI物件辨識系統」,建置自駕車影像資料庫超過1,500萬筆,已獲得28家廠商青睞,進行59件產學合作,成效顯著。

 科技部次長許有進12日主持「自駕車智慧之眼,深耕8年有成」記者會,介紹郭峻因團隊在AI與自駕車領域的成果。

 郭峻因表示,他的團隊藉由分析影像實現自駕車進階駕駛輔助系統(ADAS),成功開發嵌入式電腦視覺深度學習技術,透過快速自動化標記工具,產生大量AI人工智慧學習的資料庫。同時,開發即時軟體演算法,降低了AI電腦視覺所需的運算平台成本,且無需昂貴的GPU(繪圖處理器)運算平台。

 目前唯一困難,就是要由人工幫電腦標示物件,例如前方的貨車外型等,建立足夠的資料庫。郭峻因帶領團隊開發出全世界第一套速視訊資料自動化標記工具(ezLabel 2.0),用來標記並提供AI學習的資料,標記效率超過目前現有手動資料標記工具達10到15倍以上,並獲得於AUDI奧迪汽車所主辦的第一屆台灣AUDI Innovation Award兩項大獎,國內已有多家廠商進行試用。

 郭峻因團隊已經收集超過1,500萬筆適合台灣地區的自駕車影像資料庫,預計今年將擴增到3,000萬筆,郭峻因認為,台灣若想要推動自駕車產業,掌握豐富的圖資將成為關鍵。

 另外,郭峻因率領團隊開發出全球首創,可預測後方車輛(汽車或機車)是否將要超車的深度學習行為預測技術,於行車時可準確預測後方車輛於未來3秒鐘是否超車,可作為車輛駕駛人第三隻眼睛,守護行車安全。

 AI自駕車快速資料標記工具、自駕車圖資、行為預測技術等應用範圍相當廣泛,已經有28家公司與交大合作,潛在合作廠商還包括AI晶片公司、車電系統、自駕車圖資公司等。