美智庫警告 無限度發展 AI恐釀人類滅絕風險
人工智慧(AI)技術迅速發展,是否威脅人類生存越來越受到關注。美國國務院委託美國智庫針對200多位 AI 公司高層、國安人員與專家進行調查,專家們擔憂,最先進的 AI 系統在最壞的情況下,可能「對人類構成滅絕等級的威脅」,警告美國政府避免災難的時間已經不多。
美國國務院委託AI安全風險顧問公司Gladstone AI進行調查,在1年多的時間,採訪了200多名人員,包括 AI 公司高層、網路安全研究人員、大規模殺傷性武器專家,以及國家安全官員,Gladstone AI於本週發布這份報告。
報告提到,雖然所有AI實驗室都在爭取10年內建立通用人工智慧(AGI,一種具有類似人類智慧和自學能力的軟體),但這項革命性技術,將對民主治理和全球安全具有深遠影響。
報告說,已有越來越多證據,包括在世界頂級 AI 會議上發表的實證研究和分析顯示,超過一定的能力閾值,AI 可能會變得不可控。專家們最擔心的是,最先進的 AI 系統可以武器化,可能會造成無法逆轉的損害。
其次,AI 實驗室內部也擔憂說,一旦AI發展到某種程度後,開發人員會對他們自己開發的系統「失去控制」,可能會對全球安全造成「毀滅性後果」。
AGI若失控 恐釀成毀滅性災難
面對AGI技術快速發展,監管能力卻遠跟不上開發的速度,實驗室高階主管和工作人員已公開承認存在這些危險,但因為競爭壓力的緣故,促使實驗室仍然以「犧牲安全為代價」,對人工智慧能力進行投資。
報告警告,這會增加最先進 AI 系統被「竊取」和「武器化」,並用來對抗美國的可能性,如武器化機器人、無人機等等,以及武器化的生物和材料科學,存有挑起AI「軍備競賽」、衝突以及「大規模毀滅性武器規模的致命事故」的風險。
其他災難還包括,由 AI 驅動的「大規模」虛假資訊活動,這些活動會破壞社會穩定,並削弱對機構的信任。AGI 被視為「失控導致災難性風險的主要驅動因素」。
目前AGI 仍處於理論性,目標是建立類似人類智慧和自學能力的軟體,而且不需要編程,就能在任務之間學習,並適應新的任務和環境。包括OpenAI、Google DeepMind、Anthropic 和 Nvidia 都曾公開表示, AGI 可能會在 2028 年實現。
不能再放任 政府迫切需要干預
「美國政府顯然迫切需要進行干預」,作者在報告中呼籲,應採取重大新措施來應對這項威脅,包括實施「緊急」監管保障措施、限制可用於訓練人工智慧模型的電腦能力。
報告建議,應該禁止對超過一定閾值的高級 AI 系統進行訓練、盡可能緩和所有 AI 開發人員之間的競爭動態,並降低晶片行業製造更快硬體的速度。一旦尖端模型的安全性證據得到充分證明,AI 機構就可以提高門檻。若在現有模型中發現危險功能,政府則可以降低安全閾值。
不過,該提案可能會面臨政治困難,目前美國政府的 AI 政策是設定運算閾值,高於該閾值則適用額外的監控和監管要求,但不會限制並指其違法。美國政府智庫戰略與國際研究中心 (CSIS)稱,美國政府極不可能採納這一建議。
歐洲議會已在13日以壓倒性票數,通過全球首部人工智慧法案,將根據風險高低來監管AI科技,除了執法目的外,被禁止的AI應用方式包括:使用政治立場、宗教信仰、種族等個人特徵來建立生物辨識系統;從網路或監視器蒐集人臉畫面,開發臉部辨識資料庫;在工作場所或教育機構進行情緒辨識;根據個人特性或行為進行社會評分等。
42%商界人士也憂心忡忡
已有越來越多的專家警告,AI的快速發展可能會威脅到人類的生存。
被業界譽為「AI教父」的辛頓(Geoffrey Hinton)去年4月辭去了Google的工作,他當時受訪時坦言,AI進步速度遠超預期,有 10% 的可能性,會在未來30年內導致人類滅絕。
去年 6 月,辛頓與其他數十位人工智慧產業領袖、學者和其他人士共同簽署一項聲明,呼籲減輕人工智慧滅絕的風險,應該成為「全球優先事項」。
商界領袖雖然已在AI領域投資了數十億美元,但也同樣為此感到擔憂。去年,美國耶魯大學執行長高峰會上接受調查的執行長中,有42%的人表示,人工智慧有可能在5到10年後毀滅人類。
Gladstone AI 也採訪了包括 ChatGPT 所有者 OpenAI、Google DeepMind、Facebook 母公司 Meta 和 Anthropic 的技術和領導團隊等人,並警告雖然 AI 已經是一項經濟變革技術,繼續吸引投資者和公眾,但也存在真正的危險。
報告提到,一名知名人工智慧實驗室員工表示,如果將下一代人工智慧模型以開放獲取的方式發布,那將「非常糟糕」,這些模型可能會被用於干預選舉、操縱選民等領域,可能會對民主造成破壞。◇