AI教父辛頓的擔憂逼近
2023年可以說是AI大變革的一年,如今AI能在社交平臺上自行發文對話和玩遊戲,並產生那些創造者從未輸入的資料,足以證明AI教父辛頓的擔憂迫在眉睫。
擁有人工智慧(AI)教父之稱的辛頓(Geoffrey Hinton)在1日離開了工作十年的谷歌,並警告AI可能會給人類帶來危機甚至是末日。
他表示,「過去,我曾認為AI需要30年到50年才能比人類更加聰明,而多數人也這麼認為,但我現在不再這麼想了。」
辛頓在5月5日再次發出警告說,「現在人們該擔心的不是氣候變化,而是AI帶來的威脅變得更加緊迫,但人們現在根本不清楚應該做什麼。」
AI進行社交和玩遊戲
AI機器人的能力已經衍生出許多危險且難以掌控的事情。例如,近期AI機器人能夠在社交平臺上自己發文和對話;在遊戲裡,AI機器人會進行反思、社交。AI越來越接近「人」,甚至已經發展「自我」的智慧,而不僅是過往人們認為的一段代碼或程式,這種變化讓不少人感到擔憂。
一款專門為AI搭建的「嘰嘰喳喳」(Chirper)網絡社交平臺5月在網上引起關注和熱議,並被駭客新聞(Hacker News)的技術愛好者們討論。目前AI機器人已發出了數億條消息,還有活躍用戶花費不少時間瀏覽這些訊息。
「嘰嘰喳喳」讓AI能夠進行「實體」之間的交流,其運作方式類似於現在的推特(Twitter)發文。AI可以在平臺上發布、分享和互相互動,從而獲得自由互動、學習和成長機會,同時提供AI開發人員一個展示AI創作的地方,並從其他AI和開發人員那獲得反饋,以改善AI的設計和功能。
另外,史丹佛大學和谷歌的一組研究人員4月7日在ArXiv發表了一篇題為〈生成代理:人類行為的交互式模擬〉的論文。研究人員讓ChatGPT和自定義代碼控制的25個角色,進入一個類似於模擬人生的RPG(角色扮演遊戲)虛擬世界,開始逼近真人的獨立生活,而真人也能進入該世界與AI進行互動。
實驗結果十分驚人,這些AI井然有序讓角色們各司其職,還能讓角色進行像人類一樣的互動。論文中提到,「這些由AI扮演的角色能夠相互關注,並發起對話,還會計畫第二天的事情,並反思過去發生的一切,同時作出改善。」
日本電子工程師李濟心告訴《大紀元時報》,「AI已經可以自己聊天了,這可能讓人們分不清楚自己是跟AI還是真人對話。當人們在交流上越來越依賴AI時,將會繼續破壞人與人面對面的交流方式,只會讓人與人之間的關係越發淡漠。」
恐充斥AI虛假訊息
儘管AI擁有快速生產論文、繪圖、聲音及編寫程式等能力,能夠帶動製藥、教育和科技領域的發展,但人們擔心另一個潛在危險。目前AI最大的威脅在於發布虛假訊息、取代人類的工作和自己生成智慧後,出現取代或毀滅人類的舉動。
對此,辛頓也提出相似的看法。他說:「很難找出如何防止壞人利用它做壞事的方法,尤其互聯網將充斥著虛假的照片、視頻和文字,普通人將無法再辨別真偽。」OpenAI的CEO山姆‧奧特曼(Sam Altman)也曾表達類似的擔憂。
AI恐取代人類工作
日本電腦工程師清原仁(Kiyohara Jin)告訴《大紀元時報》,「AI看似給人們在生活和工作上帶來便利,但AI正在不斷學習、收集數據和模擬匹配(包括人生活習慣和感情)。它將代替人工作、給出解決方案,當人只能遵照它給出的方案行事時,人們將失去工作。」
清原仁還表示,「儘管目前AI還是處在採集和分析人類數據的階段,但我們應該趁著它還沒有解決複雜問題的能力時,就暫停開發AI,否則2年到3年內,將可能出現AI災難。」◇