數位教育火紅 日學者提醒AI侷限、數據宰制等隱憂
黃昆輝基金會5日舉辦2022教育政策研討會,日本早稻田大學教授吉田文指出,全世界都在推動大數據、數位教育,但須小心AI的侷限、數據可能有偏差,應避免被大數據宰制。
據中央社報導,黃昆輝教授教育基金會5日在臺北舉辦「2022教育政策國際研討會」,海內外多名學者、業界人士與會。吉田文受邀以「日本的教育與人工智慧:解決問題還是擴大問題」為題,分享日本經驗。
吉田文提到,個別優化學習、培育數據科學家是當務之急,各國都在加速推動,也沒有人反對。但除了看到數位教育措施帶來的好處,也要小心其中的陷阱。
吉田文提到,目前「單一用途之人工智慧」已發展到處理特定事務時的表現不會比人差,例如:機器翻譯、下西洋棋等。但能夠針對複雜的人類議題做出綜合判斷的「通用人工智慧」卻還沒問世,也不清楚未來能不能出現。
吉田文說,AI的原理是從過去的數據分析邏輯和概率給出答案,數據必然有侷限。以教育來說,每個人的學習動機不必然相同,無法真正做到「個別化」的教與學。她也擔心,習慣依賴AI提供內容和方法的學生,學習形式恐流於被動。
吉田文以教師對學生健康的觀察為例,往往是非常主觀及帶有選擇性,且其標準師師不同、校校有異。這些數據輸入資料庫,可能帶有「觀察者偏差」,使AI分析時也帶有歧視性偏見,但AI給出答案時卻不會告知這些問題。
吉田文強調,人類的成長通常不可預測,但AI預測未來所依據的卻是往事,例如:大數據分析可能得出結論,學業成就偏低的學生較不可能進入知名大學。學校如果完全依賴AI預測來輔導成績較差的兒童,就容易忽略兒童自己的期望、讓兒童選擇自己的生涯。
另外,吉田文也提醒「大數據宰制」問題。大數據是學習的利器,也可變成控制個人生活的工具。目前不清楚是誰掌控整個數據結構、發生問題該由誰負責,以及使用到可辨識私人身分的數據時如何維持安全和隱私,相關規定都仍含混不清。
擔任演講引言人的臺灣前教育部長吳清基表示,吉田文提醒大家不要盲目相信AI,畢竟AI不是萬能,AI分析可能存在偏見和歧視,最終還是需要人類來判斷。教育體系運用AI時,也要保有危機感,認清AI的侷限,做好預防措施,畢竟「預防勝於治療」。◇