不再一頭霧水 臺大讓AI自己解釋如何決策

「可解釋性AI(XAI)模組xCos」可成功解釋辨識的原因,並自動排除人臉不自然的表面,專注在真實、可辨識的位置。(科技部提供)
「可解釋性AI(XAI)模組xCos」可成功解釋辨識的原因,並自動排除人臉不自然的表面,專注在真實、可辨識的位置。(科技部提供)

【記者袁世鋼/台北報導】
人工智慧(AI)可蒐集並分析大量的資料,協助人類快速得到想要的答案,但科技部長陳良基表示,由於缺乏推理過程,始終無法獲得科學家們真正的信任;資誠聯合會計師事務所也指出,AI當前的關卡就是缺乏解釋性。不過,臺大AI中心已成功讓AI對如何辨識人臉作出解釋。

陳良基表示,人類總是藉由不斷的提問「為什麼」以釐清問題、找出答案;而深度學習等類神經網絡的AI,可依照自己的規則快速消化大量資料並產出高精準度的答案,但人們發現,AI並無法詳細說明推理過程,使人們不敢放心運用AI解決問題,甚至開始質疑。歐盟今年2月發表的「AI白皮書」也提及,缺乏信任是阻礙AI廣泛應用的主要原因。

不過,臺大AI中心、資訊工程學系教授徐宏民的團隊已開發出能嵌合在人臉辨識模型的「可解釋性AI(Explainable AI ,XAI)模組xCos」,除了具備高辨識率的人臉辨識能力外,還可有條理的解釋產出結果的原因。陳良基說,這項技術不僅可協助國內外相關業者開發AI辨識技術、明白AI決策建議背後的理由,更能提升人類對於使用AI的信任度。

「可解釋性AI(XAI)模組xCos」可成功解釋辨識的原因,並自動排除人臉不自然的表面,專注在真實、可辨識的位置。「可解釋性AI(XAI)模組xCos」可成功解釋辨識的原因,並自動排除人臉不自然的表面,專注在真實、可辨識的位置。(科技部提供)

徐宏民表示,他的團隊在過去3年中開發人臉辨識產品時,在深度模型設計的過程中會遇到AI人臉辨識結果跟他們的直覺無法吻合的情況,他們對於AI的判斷依據相當困惑;為此,團隊花了1年多的時間開發出「xCos」,可成功解釋辨識的原因,並自動排除人臉不自然的表面,專注在真實、可辨識的位置,進而達到辨識偽裝人臉的效果。

科技部長陳良基測試「可解釋性AI(XAI)模組xCos」辨識偽裝人臉的效果。科技部長陳良基測試「可解釋性AI(XAI)模組xCos」辨識偽裝人臉的效果。(科技部提供)

科技部長陳良基舉例,如果要判斷一個人帥不帥,會用身高、眼睛、鼻子、身材等指標來做判斷,但AI判定的參數可能達上億個,AI要如何從上億個參數當中決定哪個比較重要?這就是科學家們過去一直想要了解的「AI決策黑盒子」,進而判定AI的決策是否能夠信賴。

此外,徐宏民說, xCos模組除了可供末端使用者了解人臉辨識結果的成因外,更可協助開發人員檢視系統的運作機制,將技術擴展到其他領域的AI決策系統。例如AI僅告知發電廠未來1小時是否要增加發電量,但XAI就可說明是因為預測氣候的改變或有特殊節慶等原因;AI可以判斷X光片是否有肺炎徵兆,但XAI可解釋判斷的依據、指出病徵的位置。◇
延伸閱讀
陸企強化AI識別 戴口罩也難逃
2020年03月20日 | 4年前
取消