研究:AI錯誤詞彙 逾7成變人類記憶

圖為人形機器人RoBoHoN。(David Becker/Getty Images)
圖為人形機器人RoBoHoN。(David Becker/Getty Images)

【記者侯駿霖/報導】

隨著生成式AI(人工智慧)發展應用變廣,臺大團隊近日發布最新研究發現,在對話機器人提供的錯誤資訊中,有77%會變成人們記憶,即便機器人會提出警告,但僅能增加大眾戒心,卻難以避免錯誤資訊影響認知。提醒大眾應對AI輸出內容保持適度懷疑,增加對抗假消息的免疫力。

台灣科技媒體中心表示,臺灣大學心理學系副教授黃從仁率研究團隊於11月20日在《美國心理學家》期刊發表最新的聊天機器人研究。

黃從仁指出,團隊使用人工可編輯程式的人形機器人RoBoHoN(夏普公司研發)與臺灣大學生對話,檢查機器人提供情感及價值中立但內容錯誤的訊息中,是否有預告警語,以及多少比率會在之後的認知測驗中,變成一個人記憶中的錯誤資訊。

研究結果顯示,對話機器人的訊息有77%的錯誤詞彙,成為參與者的記憶,即使加註一次性警語、針對特定項目預先警告,也無法避免錯誤資訊的灌輸。

黃從仁說,不論聊天機器人有形無形,都應盡量不要輸出錯誤的資訊,應透過人工檢核剔除學習資料中的錯誤資訊,或讓聊天機器人透過網路搜尋,先對答案進行事實查核。他認為,人類也要對聊天機器人的輸出內容保持適度懷疑,不要照單全收。

臺灣大學資訊工程學系副教授陳縕儂表示,生成式AI與使用者互動時,可能以錯誤的資訊回答使用者,這種錯誤資訊是否會在長時間人機互動中,潛移默化的影響使用者,是規範當代AI產品相當重要的考量。要避免AI機器影響人類的想法、言論,最終變成一言堂。◇

延伸閱讀
外銷訂單連14黑 拚11月翻紅
2023年11月20日 | 1年前
AI基本法進展 吳政忠:至少等明年
2023年11月15日 | 1年前
研究:人們總能記住多年前的歌詞
2023年10月28日 | 1年前
AI深偽裸照 成青少年夢魘
2023年11月09日 | 1年前
中共參與AI峰會 英前首相示警
2023年11月02日 | 1年前
SEC主席:AI恐引爆下1次金融危機
2023年11月01日 | 1年前
白宮行政令 規範AI開發
2023年10月31日 | 1年前
取消