AI深偽以假亂真 專家疾呼加強監管

深度偽造技術示意圖。(Alexandra ROBINSON / AFP)
深度偽造技術示意圖。(Alexandra ROBINSON / AFP)

【記者鄭琦/綜合報導】

人工智慧(AI)研究先驅班吉歐(Yoshua Bengio)等的AI專家及業界高階主管已簽署一封公開信,提出深度偽造(deepfake)技術對社會的潛在危害,並呼籲加強對深偽成品的監管。

中央社引述路透社報導,這群人簽署的公開信寫道:「如今,深偽技術往往涉及性影像、詐欺和政治性假消息。由於AI正在迅速發展,使深偽製品越來越容易製成,因此需要相應的防範措施。」這封公開信由加州大學柏克萊分校(UC Berkeley)AI研究員克利契(Andrew Critch)彙整、撰寫。

深偽技術是透過AI演算法,製造出以假亂真的影像、聲音或影片,而近期這項科技的進展已使這些製品越來越無法和人類創造的內容區分開來。

這封標題為〈打斷深偽供應鏈〉的公開信對如何規範深偽技術提出建議,其中包括將深偽兒童色情製品全面定為犯罪、對任何故意生成或促進散播有害深偽製品的個人祭出刑罰,並要求AI公司預防其產品被用來生成有害的深偽製品。

截至21日早上,已有四百多名來自學術界、演藝界和政界等各行各業的個人簽署這封信,包括哈佛大學心理學家品克(Steven Pinker)、演算法正義聯盟(Algorithmic Justice League)創辦人布蘭維妮(Joy Buolamwini)、兩位前愛沙尼亞總統、Google旗下AI公司DeepMind的研究人員,以及一名OpenAI研究人員。

文字生成AI影片 內容創作者憂失業

美國新創公司OpenAI上週公布一款名為Sora的AI模型,只需輸入幾行文字即可產生高度逼真的影片片段,引發了人們對其道德和社會影響的擔憂,同時也令許多YouTuber及內容創作者懷疑,自己是否將成為被演算法取代的最新職業。

法新社報導,對於有AI正在做自己的工作,YouTuber布朗里(Marques Brownlee)表示,這令他「感到恐懼」且「受到威脅」。

名為Defend Intelligence的AI工程師暨直播主艾耶瑞(Anis Ayari)告訴法新社,這項工具有一天可能被用來創造出完全虛擬的主持人。

OpenAI發布Sora的範例影片,包括一名獨自走在東京街頭的時尚女性、一隻在床上叫醒主人的貓,以及一群狂奔的長毛象。目前Sora還不會開放給公眾使用,已選擇一些視覺藝術家、設計師和影片製作者來幫忙測試。◇

延伸閱讀
台積電跌14元 臺股守住18600關卡
2024年02月16日 | 9個月前
AI發展的恐怖預言:將取代人的思想
2024年02月16日 | 9個月前
常春醫院引進AI 共築校園運動防護網
2024年02月05日 | 9個月前
取消