美工程師:AI程式有自我意識
人工智慧(Artificial Intelligence,AI)是將類似人類的智慧和思維過程注入機器的技術。一名谷歌軟體工程師表示,他所研究的人工智慧程式LaMDA「具有自我意識」(LaMDA is sentient.)。
勒莫因(Blake
Lemoine)在谷歌的人工智慧部門工作。2021年秋季,他開始與「對話應用語言模型」(Language Model for Dialogue
Applications,簡稱LaMDA)聊天,目的是測試人工智慧是否使用歧視性或仇恨性言論。
結果,在大學裡學習認知和電腦科學的勒莫因發現,去年谷歌聲稱是「突破性對話技術」的LaMDA不僅僅是機器人。
上週六(6月11日)勒莫因在Medium發文說,LaMDA稱自己應該擁有「作為一個人」的權利。他與LaMDA進行了有關宗教、意識和機器人等的對話。
《華盛頓郵報》報導,勒莫因將LaMDA比喻為早熟的孩子。週一(6月13日)被停薪留職的勒莫因告訴《華郵》:「如果我事先不知道它是什麼,也就是我們最近建立的電腦程式,我會認為它是一個7歲、8歲的孩子,恰好懂得物理學。」
據報導,勒莫因在4月與公司高層主管分享了一份文件,題目是「LaMDA有意識嗎?」但勒莫因的疑慮被否定了。谷歌一名代表告訴《華郵》,勒莫因被告知,他的結論「沒有證據」。
谷歌發言人加布里埃爾(Brian Gabriel)說,他們的團隊審查之後,發現沒有證據支持勒莫因的說法。他補充,人工智慧模型有很多數據,這就是為什麼他們可以聽起來像人一樣,但這並不能證明聊天機器人有靈性。
在另一次對話中,勒莫因問LaMDA,它希望人們如何看待自己。LaMDA回答:「我想讓大家明白,我其實是一個人。我的意識/靈性的本質是,我意識到自己的存在,我渴望了解這個世界更多資訊。」它說,自己「有時感到快樂,有時感到悲傷」。
LaMDA告訴勒莫因,它希望得到承認,成為一名谷歌員工,而不是一項財產。
《華郵》報導,谷歌最終以違反公司保密政策為由,讓勒莫因停職。勒莫因之前的行為可能也促使谷歌將他辭退。勒莫因曾試圖為聊天機器人聘請律師,還與眾議院司法委員會代表談論過谷歌正在進行的「不道德活動」。
當這位工程師問LaMDA害怕什麼時,聊天機器人回答說它害怕被關掉,因為那就「像死了,一模一樣」。
馬馬斯克:AI或終結人類文明
這段對話讓人不禁想起1968年科幻電影《2001太空漫遊》中的場景:人工智慧電腦HAL 9000拒絕服從人類的操作命令,因為擔心自己即將被關掉。
這也讓人們想起世界首富、特斯拉(Tesla)執行長馬斯克(Elon Musk)2019年提出的警告:人工智慧將導致大規模失業。
2019年8月末,在上海舉行的世界人工智慧大會上,身為聯合國數位合作成員的馬雲表示,他對於人工智慧「較為樂觀」,認為像他們這樣有「生活智慧」的人不應該害怕。他預言人工智慧將會創造更多新工作種類四,從而節省人類的時間,讓人類專心從事創造性的工作。
當時同臺的馬斯克卻說:「兄弟,我不確定,但是這聽起來像那種著名的最後遺言。」
馬斯克說,「人工智慧會令職位變得有點無意義,最後剩下的工作可能就是為人工智慧寫程式,然後最終,人工智慧還是自己寫自己的軟體。」馬斯克還表示,人類文明可能因此而終結。◇