生成式AI提供資訊真假 如何判斷?

隨著生成式AI創作的內容越來越多,如何評估資訊的正確性,是大家要面臨的重要問題。(Shutterstock)
隨著生成式AI創作的內容越來越多,如何評估資訊的正確性,是大家要面臨的重要問題。(Shutterstock)

【大紀元訊】
隨著生成式人工智慧(AI)創作的內容越來越多,如何評估生成式AI提供的資訊,就成為大家要面臨的重要問題。

生成式AI是可以根據使用者的提示生成新文字、圖像、音頻和影片的人工智慧。包括ChatGPT、谷歌(Google)的Bard和必應(Bing)的聊天機器人Chatbot等工具。

生成式AI可以創造模仿人類的寫作。它是一種基於海量資料集的機器學習,其遵循的語言模式是,透過預測可能一起出現的單字組合而來。雖然生成式AI具備遵循模式的能力,這並不等於它也具備辨別事實的能力。

事實是:生成式AI並不能理解其所創建文本的上下文或含義。

評估資訊來源的原則,也適用於生成式AI。諸如SIFT和RADAR之類的檢測步驟,有助於評估資訊是否可靠。

然而,在諮詢生成式AI時,我們通常會問自己的一些關於資訊來源可靠性的問題,這可能更難獲得回答,因為生成式AI得出答案的過程,並不是公開的。

如何判斷?教你幾招!

那麼,應該如何評估生成式AI提供的資訊呢?

1. 比較:

尋找其他可靠來源,來驗證人工智慧的說法。試著找出涵蓋同一主題的其他來源,甚至是該說法的原始出處。

2. 檢查引用文獻是否虛構:

我們可以要求生成式AI工具提供資訊來源,但眾所周知,生成式AI會提供非常令人信服的虛假來源。

它甚至可以創建包含研究所詢問主題的真實研究人員姓名的引文。然而,引用的文章可能並不存在,或並非來自其引用的期刊。這些虛構的引文被稱為「幻覺」。

你需要搜索這些引文,確認這些文章確實存在,並且引述的內容是正確的。

3. 確認:

查證原始文章來源,並核實生成式AI工具所聲稱,在該文章中找到的資訊。人工智慧並非專門為真實準確的引用而設計,因此它可能會引用一篇實際上並不包含該資訊的文章。

4. 檢查時效性:

時效性——文件的建立、編輯、更新或修訂時間——是評估任何資訊來源的重要因素。如果您需要有關世界事件或新研究進展的最新資訊,生成式AI的資料集中可能不包含這些資訊。截至 2023年10月,如果你問ChatGPT(GPT-3.5)它所訓練的資料有多新,它會告訴你它的資訊來自2021年,而且它無法從網路上取得最新資訊。

巡迴的詛咒

隨著生成式AI創作的內容越來越多,最終這些內容將進入下一代人工智慧的訓練資料集。這可能會導致數據品質下降,因為AI產生的錯誤訊息,可能會隨著時間的推移而不斷累積。

Shumailov等人在其2023年發表的論文《巡迴的詛咒:基於生成資料的訓練使模型遺忘》(The Curse of Recursion: Training on Generated Data Makes Models Forget)中提出並測試了這個想法。他們發現,在訓練資料集中加入人工智慧生成的內容,會導致模型崩潰——

這是一種退化過程,隨著時間的推移,模型會忘記真正的底層資料分布,即使分布沒有隨時間變化」。◇

★推薦閱讀:
延伸閱讀
AI新十大建設 卓揆盼預算通過
2025年11月13日 | 2天前
超微看好AI市場規模將達1兆美元
2025年11月12日 | 3天前
研究:與AI朋友聊天 會讓你更孤獨
2025年11月12日 | 3天前
AI RAP平台助攻 台灣產業升級轉型
2025年11月11日 | 4天前
美中AI競爭 晶片之外 關鍵是核能
2025年11月03日 | 12天前
取消