AI教育缺倫理框架 學生恐暴露於偏見歧視
教育部近日積極推動AI(人工智慧)教育政策,對此,國教行動聯盟6日表示,教育部在推動AI教育的同時,應優先制定明確的AI倫理框架與使用規範,勿操之過急,否則可能讓學生暴露於偏見、歧視而不自知,甚至跨越道德底線而犯罪。
教育部近日公布多個AI教育政策,包含整合台大等25所大專校院組成「人工智慧學程聯盟」,提供學生跨校修讀AI課程;推動高中AI多元選修課程;在國中小辦理「AI菁英爭霸賽」等政策措施,期望鼓勵學生從小就接觸和學習使用AI模型,並透過AI實作來解決真實的問題。
不過,國教盟理事長王瀚陽向《大紀元時報》表示,目前AI教育缺乏倫理框架,如:學生應明白何謂道德行為底線,教師也應有使用AI的界線與責任機制,否則可能讓學生暴露於偏見、歧視中而不自知,對隱私、尊嚴也會造成危害,並具有潛在的犯罪風險。
關鍵在學習動機 教育是人的工作
對於用AI學習資源來弭平城鄉差距,王瀚陽說,真正挑戰在於學生的學習動機,而非資源落差,許多城市中的孩子也缺乏學習動機,因此,城鄉差距的定義應是以學生動機為核心。他說,「教育是人的工作」,應思考如何透過良好的師生互動,引導、激勵孩子的學習動機,而非僅僅提供數位資源。若學生缺乏學習動力,無論提供多少學習工具,教育仍然無法發揮作用。
國教盟呼籲,教育部在推動AI教育的同時,應將拒絕偏見歧視、防止犯罪、提高學習動機作為優先考量,而非僅僅追求科技創新,建議優先制定明確的AI倫理框架與使用規範,以保障學生在使用AI時不逾越界限。
台灣曾發生「小玉Deepfake(深度偽造)換臉事件」,國教盟說,就是藉由AI技術傳播色情、侵害人格尊嚴的案例,教育部推動競爭性的AI競賽時,若無有效監管,恐導致惡性競爭,學生為了取勝或許會跨越道德底線,反而為未來的犯罪行為提供溫床。
立委:教育不應只是跟風
聯合國教科文組織於2021年發布〈AI倫理建議書〉,明確指出AI的危險存在於越來越多的性別及種族偏見,對隱私、尊嚴和機構組織帶來重大威脅,大規模監視造成的危險,以及執法中使用越來越多不可靠的AI技術。國教盟表示,截至目前,「未見制定一套通用的標準來解決這些問題。」
國內「AI基本法」尚未上路,對於AI是否過早導入教育領域,國民黨立委洪孟楷向《大紀元時報》表示,站在教育的角度,學生在求學階段,人文素養的養成以及培養學習能力至關重要,教育政策不應該只是跟風,「為AI而AI」,這樣恐怕會揠苗助長。
清華大學榮譽教授李家同則向《大紀元時報》表示,AI到底是跟機器人、電腦有關,還是只指生成式AI,「連教育部都無法說清楚什麼是AI,定義為何?」他認為,推行這樣的政策是錯誤的,各國都還不敢這麼做,因為教育的發展應該是很精密的。
李家同舉例,手術用的達文西手臂,是一種結合了電腦與機械人技術的機械手臂,學生若不先從基礎開始學習,就直接學做機械人,但若連控制機器人的馬達都還不知道該怎麼做,就是本末倒置了,這是個基礎問題。
中興大學附屬中學老師張啟中則向《大紀元時報》表示,AI教育應該在哪個階段導入教育領域,是否應該要先有倫理規範等,目前在國外意見也都還不一致,他認為國中小的學生在學習生成式AI時,最重要的是不應隨意把個人資訊給AI當數據使用,老師一定要對此有所監管跟說明。◇