「人工智慧」非萬能 這些事AI做不到

當人們越來越依賴AI進行決策,將AI系統引入司法、金融、雇用等重大議題時,可能會造成隱憂。(123RF)
當人們越來越依賴AI進行決策,將AI系統引入司法、金融、雇用等重大議題時,可能會造成隱憂。(123RF)

編譯/陳霆

今年4月,傳出亞馬遜公司使用人工智慧(以下簡稱AI)系統追蹤員工效率,提醒動作變慢的員工,並自動開除未達目標者。同樣在4月,一位布朗大學(Brown University)的學生被誤認為是斯里蘭卡爆炸案的嫌犯,起因也是斯里蘭卡當局的臉部辨識AI出錯。

這些事件顯示,當人們越來越依賴AI進行決策,將AI系統引入司法、金融、雇用等重大議題時,可能會造成隱憂。「我最擔心的是,我們想用來解決問題的系統,最終可能會加劇這些問題。」紐約大學的AI Now研究所共同創辦人凱特.克勞福德(Kate Crawford)如是說。

AI為什麼會出錯?

許多證據表明AI也會有「偏見」(AI bias),並不總是像我們想像的那麼客觀真實。這種情況,被稱作「AI偏誤」或「演算法偏誤」,怎麼形成的呢?

1. AI的學習過程

AI的準確度需要經過訓練,訓練時提供的資料如果不足,無法反映複雜的真實世界,就會造成AI有偏誤。Edge Case Research共同創辦人暨執行長華格納(Michael Wagner)指出,在訓練自動駕駛車AI時,儘管感測器已分析了數千或數百萬個人類影像,AI還是會忽略坐輪椅的使用者或穿著螢光背心的建築工人,因為這些例子在數據庫中是少數。

「機器學習與人類學習相當不同」,華格納說:「例如:電腦可能會漏掉一個站在垂直物體(如電線桿)附近的人。你想過這個嗎?」

2. AI其實無法思考

AI程式也可能「學會」人類的偏見。訓練AI時,它們依靠從大量數據中找尋不可見的模式來分析信息。當這些資訊中隱藏了人類的偏見時,AI會複製這樣的偏見。但AI和真人不同,在面對偏見時,它們沒有思考能力。Google決策智慧主管凱西.科茲科夫(Cassie Kozyrkov)表示,AI只是收集數據、呈現模式的工具,永遠不會自己思考,

3. AI無法認定抽象價值

出錯的另一個原因是,當人類試圖讓AI進行涉及公平、正義、信賴等抽象價值的決策時,因為無法將抽象意義用數學術語呈現出來,導致AI的判斷違背人們的期待。

例如:一家銀行希望預測貸款申請人的信譽度,「信譽」是一個模糊的概念。為了將其轉換為可以計算的內容,就會將「信譽」轉變為可量化的因素。如果貸款模型發現,老年人有較高的違約可能性,並根據年齡減少了放款金額,就可能造成非法歧視。

AI金融平臺AppZen的聯合創始人維爾瑪(Kunal Verma)也表示,如果申請人居住在很多人拖欠貸款的地區,系統也可能將其判斷為不可靠。

機器學習與人類學習相當不同」,華格納說:「例如:電腦可能會漏掉一個站在垂直物體(如電線桿)附近的人。你想過這個嗎?(123RF)機器學習與人類學習相當不同」,華格納說:「例如:電腦可能會漏掉一個站在垂直物體(如電線桿)附近的人。你想過這個嗎?(123RF)

AI涉及工作的爭議

許多研究都指出,在各行業中引入AI技術,可能造成許多人失業。牛津經濟研究院(Oxford Economics)在2019年6月的一份報告中預測,到2030年,機器人將取代全球8.5%的製造業工作職位(約2千萬個職缺)。不少行業的雇員因此感到擔憂,他們擔心自己的專業能力被電腦取代。

與此同時,也有許多人擔心,人們試圖將演算法無法處理的問題交給AI判斷。例如:亞馬遜公司曾借助AI將求職者予以排名,但後來發現該系統傾向錄用男性求職者,儘管工程師進行調整後仍無法解決,最終只得放棄該計劃。

麥肯錫全球研究所(MGI)的研究發現,具有「不可預測」、「具備極專業知識或技能」、「需與利益關係人互動」等特性的工作電腦難以勝任。如果我們勉強將這類任務交給電腦處理,可能就會出現各種錯誤。

像是司法、執法等工作,就涉及了需要衡量各方的公正性,或是在極短時間做出關乎生死的判斷,AI演算法是否能承擔這樣的責任?一些改過自新的人所做的努力,在演算法的計算中能否被看見?

或許,我們要記得,人工智慧並非萬能,只是一種工具,最終不能代替我們來思考。◇

延伸閱讀
半導體投資額 龔明鑫:上看2.6兆
2019年10月29日 | 5年前
智慧宜科 資訊應用競賽結果揭曉
2019年10月24日 | 5年前
以人為本 科技部建AI研發原則
2019年09月23日 | 5年前
取消