【國際瞭望】政治人物依賴人工智慧有風險
生成式人工智慧(Generative AI)正日趨普遍,包括在政治領域。當前總統川普在紐約被警察暴力逮捕的人工合成圖片、或者教宗身穿時尚白色羽絨服的照片在網上瘋傳時,這些都是很多人相信、或者願意相信的東西。
2023年6月26日,谷歌母公司Alphabet前執行長施密特(Eric Schmidt)對人工智慧傳播假訊息的能力發出警告,他告訴CNBC電視台的觀眾,「2024年的大選將會一團糟,因為社交媒體並沒有保護我們免受虛假生成式人工智慧的影響。」
施密特指出,Alphabet、推特(現更名X)、Meta等社交媒體公司裁撤了數千個專門負責內容審核的工作職務。這類工作可能有助於在2024年的大選中發現人工智慧的深度造假。
已經有很多造假出現在競選活動中了,多倫多市長候選人菲利(Anthony Furey)在競選綱領的資料中發布了人工智慧生成的女性照片,照片上的女性居然長了三隻胳膊,除此之外看起來很真實。這位候選人還發表了虛構的「反烏托邦」城市景觀。
有了人工智慧,受僱於政界的技術人員可以製作出超級真實的色彩增強圖像,以配合民眾的恐懼心理。如果選民以前不害怕,他們現在會害怕,並且更可能投票給那些最能透過精準投放個人化資訊、迎合恐懼的政客。
風險在於競選活動已變得更加脫離現實,包括獨裁者在假選舉中利用深度造假,從而讓自己權力合法化的競選活動。威權政治已經脫離了現實,因為審查制度和假訊息被灌輸給他們的人民和手下,而這些手下反過來告訴俄羅斯和中國等國的獨裁者他們想聽的東西。
儘管專制者對自身權力已經抱持著樂觀的看法,但有了人工智慧以後,他們的任期將更有保障。
民主國家至少要好一點。選民透過公開的辯論和群眾的智慧,為領導人提供了某種程度的真實感。然而,當這些人受到太多假信息(要麼過於樂觀,要麼過於可怕)的操縱時,民主就會變得具有煽動性。
人工智慧將煽情所需的技術交給煽動者,使任何類型的圖像、文本、影片和語音的深度偽造看起來、聽起來都真實可信。
《紐約時報》記者蒂芙尼.許(Tiffany Hsu) 和邁爾斯(Steven Lee Myers)報導:「4月芝加哥市長選舉排名第二的候選人抱怨說,一個偽裝成新聞機構的推特帳戶用人工智慧冒充他的聲音,暗示他寬恕了警察的暴行」。
《紐約時報》的戈德馬赫 (Shane Goldmacher) 寫道:「共和黨和民主黨的軟體工程師們競相開發工具,利用人工智慧提高廣告效率,預測分析民眾行為,編寫越來越多個人化文案,並在海量選民數據中發現新模式。」
民主黨全國委員會(DNC)進行政治實驗,結果人工智慧生成的文本至少與人類生成的文本表現一樣好。高地實驗室(Higher Ground Labs)投資新科技來支持進步派政治,它有一個名為Quiller的人工智慧系統,可以同時編寫、發送和測試籌款電子郵件。
《科拜爾深夜秀》 (The Late Show with Stephen Colbert) 節目用人工智慧模仿了卡爾森 (Tucker Carlson,前福斯頻道知名主播)的聲音,聽起來同樣流暢。
播客節目《Pod Save America》深度模仿了拜登總統的聲音,說了一些拜登永遠不會說的話(還有一些他可能會說的話)。
戈德馬赫採訪了一些政治運動人士,他們擔心「壞人」可能會利用人工智慧浪費對方競選團隊的時間,比如假扮潛在選民,製作自己候選人的深度造假訊息,向支持者提供個性化短片,或者偽造對方候選人的語音訊息,在選舉前一天發送給選民。
除非對人工智慧在政治上的使用進行監管,否則這項技術可能會變得無處不在、功能強大,從而損害真正民主所依賴的知情選民。到那時,民選官員將為了自身的成功依賴人工智慧,他們不太可能改變最初讓他們當選的、過於寬鬆的選舉法規。為什麼要自斷人工智慧這個臂膀呢?到那時,我們可能會永遠被人工智慧政治所束縛,就像我們現在被過於寬鬆的競選融資法規所束縛一樣。
一些政治專家和選舉顧問現在呼籲制定法規,阻止人工智慧為政治廣告生成合成圖像,並禁止由OpenAI開發的ChatGPT生成大量的競選資料。
然而,這種自律聽起來並非那麼有用。與它的名字相反,OpenAI 並不使用開源代碼。任何政治運動或恐怖組織都可以下載大量其他的開源代碼,並按照自己的需要進行修改。
當涉及到政治時,我們迫切需要對人工智慧進行監管——我們的欺騙性競選活動已經夠多了。我們不需要政客們所依賴的、更多更好的深度造假,我們需要的是相反的東西。
──作者科爾(Anders
Corr)是科爾分析公司(Corr Analytics)的負責人與《政治風險雜誌》(Journal of Political
Risk)的出版商。原文「Politicians Risk AI Dependency」刊登於英文《大紀元時報》。◇