學者:AI法制化應「以人為本」 盤點社會衝擊現況
談到人工智慧(AI),不免讓人聯想到2004年威爾史密斯(Will Smith)主演的《機械公敵》(I, Robot),當時就示警AI偏誤,可能導致一場機器人和人類的戰爭。學者強調,AI站在風口浪尖,臺灣將AI逐步法制化,必須「以人為本」,並評估對社會層面的衝擊。
《機械公敵》提到的機器人三定律,科幻迷一定不陌生,一是機器人不能傷害人類,或坐視人類受到傷害;二是機器人必須服從人類命令,除非該命令與定律一衝突;三是機器人必須保護自身存在,除非與定律一、定律二衝突。
但是機器人原本與人類和平共處,卻開始出現傷害人類的行動,主要是隨著三定律的演算偏誤,最終讓機器人得出扭曲結論,認為人類之間的戰爭會讓人類自我毀滅,所以它們的行動是為了保護人類,這就是一種演算法偏誤。
除了演算法偏誤問題,AI技術或產品本身就可能有善惡兩種用途,舉例來說,AI人臉識別技術能用於數位裝置保護,或是出入辦公大樓的通行證,但也可能被用來監控特定人士的行蹤;無人機可以作為農業用途幫助播種,但也可能成為自動化武器。因此必須有AI倫理規範為基底,作為法制化推動前提。
AI若被濫用 後果恐難料
人工智慧法律國際研究基金會執行長、高雄大學財法系講座教授張麗卿告訴《大紀元時報》,全球掀起一波AI浪潮,各種應用如雨後春筍般冒出,但是也給社會帶來新風險,例如AI的安全性沒有獲得保障,可能發展成自動化的武器系統,就會對人類社會構成威脅。
她認為,因為AI技術被濫用,很多後果難以預測,企業以AI取代人類的工作、進而裁員,顯而易見的影響就是對勞動市場的衝擊。若不早點完善法制,等風險失控造成人民權益受害時,就可能有一波反撲,所以政府應盤點AI對社會的衝擊。
張麗卿直言,世界各國討論AI倫理規範都是「以人為本」,且若涉及資安層面要更小心,建議公務機關應優先訂出AI系統使用規範,例如連到外網、有機密資料外流疑慮的部分,必須禁用。
針對該規範,國科會將以資料保護與治理、風險控管、安全性、智慧財產權、個人隱私、執行公務的機敏性與專業性等六大面向,並參考國外政府對公務機關使用生成式AI的審慎因應做法,來研擬臺版規定。
AI倫理規範有五大原則
張麗卿提到AI倫理規範的五大原則,首先是安全性,整體AI系統需要確認是安全、可控,不會導致人類生命、身體、自由或財產陷入風險與危機。
其次,AI需具公正客觀性,不應有任何種族、性別、宗教、國籍等不同因素,對用戶產生偏見與歧視;第三,系統要有透明性,也就是可解釋性,一旦發生事故或出現法律責任,可追溯源頭問責。
第四為隱私性,應遵守個資保護相關規範,且要明確告知AI如何蒐集用戶數據;第五是永續性,意即不能對環境社會產生重大負面影響,甚至要評估AI對勞動市場的衝擊、保護公平交易的秩序等。
若翻開其他國家AI法制化進程,張麗卿說,日本經濟發展產業省2022年發布實踐AI的治理指導方針,主要是針對企業發展,提供一個AI發展指引,並透過民間與政府的力量,制定相關倫理準則,作為未來立法方向的參照。
德國AI倫理準則很早就融入各項領域的法律規範中,2017、2021年修正《道路交通安全法》及《保險法》,訂定有關自駕車的法律規定。她認為,待臺灣AI基本法草案9月推出後,各國AI納管進度,都是各部會可以思考及借鑑的依據。
歐盟擬立法 開全球第一槍
歐盟6月14日通過名為「人工智慧法案」的立法草案,這是西方第一部全面的AI法規,預期法案最終版本將於今年底出爐,但已能看出AI監管的輪廓。
首先是生成式AI系統的製造商,必須採取保護措施,以防止它生成非法內容;其次,企業須標記AI生成的內容,防止AI被濫用在假訊息傳播。
第三,製造商須提供摘要,揭露訓練AI模型的資料來源;第四,若出版商、內容創作者的作品,被AI工具用作生成內容的材料時,製造商必須提供創作者分潤方案。
高額罰款 或導致ChatGPT脫歐
若未能遵守,恐處以高達3千萬歐元(約新臺幣10億元)或公司全球年收入6%~7%罰款,對谷歌(Google)及微軟(Microsoft)等科技公司來說,罰款可能上看數十億美元。儘管該草案獲得內容創作者或出版商響應,但外界認為,這可能導致ChatGPT最終「脫歐」。
此外,值得注意的是,草案內容也明文規定,AI工具的風險若無法被歐洲議會接受,將被禁用,例如中共政府實施的社會評分系統、影響選民投票的工具或推薦演算法,以及將民眾行為、社經地位、種族分類的AI系統等。◇