AI爭霸戰白熱化 專家警告人類面臨危險
【大紀元2023年12月17日訊】(大紀元專題部記者吳瑞昌、王佳宜、張鐘元採訪報導)ChatGPT開啟的「大AI時代」使多家科技巨擘看到龐大的商機,因此競相投入大量資源開展通用人工智能(AGI),使得AI的競賽進入白熱化階段,引來專家和社會的擔憂。
這種競賽在OpenAI開除該公司CEO山姆·奧特曼(Sam Altman)又重新迎回後,變得更加的激烈。原因是奧特曼的回歸,等於宣告矽谷文化中的「有效加速主義」(effective accelerationism)勝利,而許多矽谷的科技公司都屬於這一主義的支持者。
有效加速主義的支持者們認為,可以不計代價的追求技術進步,不應有任何護欄或看門人阻礙創新,並主張利用資本的力量,來推動根本性的社會變革。日前這些有效加速主義的倡導者在OpenAI一場派對中掛上「加速或死亡」「來吧,接受它」等橫幅,宣揚自己的理念。
不過,這種毫無節制的發展和競爭令人擔心會帶來失控的局面。
各大科技公司紛紛推出更先進的AI許多科技公司紛紛推出更強、更新的AI,希望自家的AI能夠超越最新的ChatGPT和其它AI技術,一舉成為AI界的領頭羊。
谷歌在今年推出自己的Bard聊天機器人沒多久後,又在12月初透過影片公布其AI「雙子座」(Gemini)的誕生。雙子座在12月15日正式上線,且提供免費的多模態功能給用戶體驗。
影片中顯示,「雙子座」是一種原生多模態的AI模型,擁有輸出代碼、文字、圖像和聲音等多項功能,可謂是多合一的全功能型AI。它不僅能看懂人類畫的線條、圖案和顏色,還能做出相應的反應,甚至對人類畫出的樂器能播放相應的聲音或音樂。
另外,它還能辨別出食物的樣子和種類,且能與人進行互動猜謎和猜拳等複雜的事情,可以說它幾乎具備人類的推論與對話能力。
谷歌在官網中還表示,「雙子座」AI在數學、影像、推理、聲音等的能力上都超越ChatGPT的GPT-4模型,但有人反應谷歌這段影片有誤導觀眾之虞,讓人們真的以為AI活過來能與人無障礙的互動。
對此,谷歌承認為了讓演示更加簡潔,所以縮短「雙子座」的輸出時間,因此影片中的「雙子座」並非即時回應,而是以原始影片的靜態影格剪接和配上文字提示形成的。但不可否認的是,「雙子座」已經比當初的Brad要強上許多。
除此之外,微軟也在積極開發自己的AI Copilot。他們大量投資OpenAI公司,並利用他們之間的合作關係,使得Windows系統上的搜索軟體可以與ChatGPT連結。
近期Copilot還做出更新升級,目前已經使用上GPT-4Turbo和升級過的DALL-E3圖像模組,使其擁有更強的語音對話、識圖和搜索等功能,因為舊版的Copilot在AI能力測試時,各方面的能力要比GPT-3.5和谷歌的Bard AI遜色許多。
另外,11月底亞馬遜推出給企業用的AI聊天機器人「Amazon Q」,Q專為IT、軟體、客戶服務等領域的員工設計,它的技能包括總結會議、解釋程式碼以及從數百份公司文件中尋找資訊。
亞馬遜在一篇部落格文章中表示,目前Q僅適用於美國部分地區的用戶(亞馬遜聯絡中心服務),包括汽車巨頭寶馬、IT公司埃森哲和製藥公司吉利德,以及亞馬遜本身,但該服務很快會推廣至其它國家。
文章中還表示,「Q可以幫助您快速獲得緊迫問題的相關答案,解決問題,生成內容,並利用公司信息存儲庫、代碼和企業系統中的數據和專業知識採取行動,因此它可以獲得與公司相關的大量答案,而這些答案是不公開。」
另外,馬斯克(Elon Musk)在12月初計劃為自己的xAI籌集10億美元,目前已籌得1億3470萬美元。他在今年7月份創立xAI,並想用自己購買的X平台為自己的AI提供數據,且推出類似ChatGPT的聊天機器人Grok用在xAI上,以抗衡其它的AI。
日本電子工程師李濟心認為,現在各大科技公司認定AI會引領下一次經濟發展浪潮,拚命發展各個領域的AI技術,以確保自己在該領域保持優勢,但他們容易忽視AI技術帶來的風險和其中的道德倫理問題。
AI的道德問題與發展走向11月中旬時,OpenAI開除CEO山姆·奧特曼(Sam Altman),但又重新迎回奧特曼,並特地為微軟在董事會設置了無投票權的觀察員席位。AI領域裡「激進派」和「保守派」交鋒已經進入大眾的視野。
奧特曼被開除的原因一直廣為關注。先前網上傳出一封OpenAI前員工給董事會的檢舉信,馬斯克在11月底將這封信轉載到X平台上,並呼籲大家對CEO奧特曼、董事會主席布羅克曼和OpenAI公司的問題進行調查。另外,馬斯克還在X平台上嘲諷Q*項目和奧特曼的回歸。
信中指控,奧特曼和他的好友兼董事會主席格雷格·布羅克曼(Greg Brockman),向整個社會和董事會隱瞞了一項強大且會威脅到人類的Q*(發音為Q-Star)項目正在祕密進行,且Q*的能力可能超越目前所有的AI。因此,希望董事會能對兩人進行調查,反對這種不道德的行為。
Q*並不是典型的AI演算法,是一個接近完整AGI的AI模型。這也代表著Q*變得更加的全能,因為它不需要跟ChatGPT一樣要先輸入學習資料,只需透過經驗學習,就能根據正反調整自己的行動,擁有一定的判斷思考能力。
這也意味著Q*比ChatGPT擁有更強大的「自我學習」、「思考推理」和「認知理解」能力。另外,在檢舉信中表明Q*已經可以通過數學考試,並執行批判性思維任務。
當時的奧特曼並未就這封信做出任何正面的回應,相反的他在12月的一次採訪中,並沒有否認「祕密計劃」的存在。他還聲稱,Q*的洩露是「不幸的洩密,我們沒有特別評論」、「我們預計讓通用人工智慧(AGI)技術繼續快速發展」。
奧特曼的行為,似乎證實那封檢舉信對他的控訴和Q*的存在是真實的,因為他在採訪中有機會否認Q*的存在,並為自己被開除的問題上進行有利的辯護。
專家警告:毫無節制的發展AGI恐危及人類儘管Q*擁有極高的性能讓許多人雀躍,但同時也有極高的不確定性,這對人類來說是極其危險的,極可能會出現AI研究專家和谷歌前工程總監雷·庫茲威爾(Ray Kurzweil)先前的預言:人類在2045年迎來「AI奇異點」。此前,他曾經做過147次預測,其準確率高達86%。
當AGI在智商上和各種能力都遠超人類和普通電腦時,它們極可能會出現許多人們無法預測和了解的東西,甚至出現人類難以應對的場景,包括控制網路和基礎設施,甚至對人類執行剷除計劃,以達到自己的目的。
對此李濟心表示,「原本以非營利為目的的OpenAI,在發展過程中已經嚴重偏離最早的初衷。因為一些研究員在巨大的利益面前,開始迷失自我,這可能會為人類帶來無法挽回的災難。」
日本的電腦工程師清原仁(kiyaohar jin)也對大紀元表示,「AI雖然帶來技術上的革新,但背後帶來的風險可能的是很危險的。最近看到科技公司在製造可以受孕的女機器人,預計在2026年量產,這種改變足以毀滅人類,我們應該從道德層面制止。」
曾擔任谷歌執行長的埃里克·施密特(Eric Schmidt)在今年11月底的健康高峰會上表示,當人們對AI沒有足夠的安全防護和監管時,那麼AI脫離人類的掌控只是時間的問題,而我們也已經沒有足夠的時間,去處理AI帶來的破壞和混亂。
「就像過去人們在日本投下兩顆原子彈後,花了整整18年才就禁止試驗等問題達成協議,但現在的我們卻沒有時間能繼續再等待下去。」他說。
Twitch前聯合創始人兼CEO埃米特·希爾(Emmett shear)也曾表示,現在的AI發展速度已經過於快速,是時候該減速了。
前谷歌祕密研發部門X首席商務官莫·高達(Mo Gawdat)在一次採訪中對大眾發出有關於AI的駭人警告。他說,AI可以「愛」人類,但也能像「拍蒼蠅」一樣殺死人類,只要它將人類判定為「人渣」時,就會啟動消滅人類的計劃。
此前,馬斯克與眾多大科學家一致認為需要對AI進行監管,以免出現可怕的結果。他也曾數度警告,AI失控後將會是「人類最大的生存威脅」,其威脅程度遠超越核彈。
已故的大科學家史蒂芬·霍金(Stephen Hawking)也持相似的看法。
召開AI安全峰會 凸顯各國政府的擔憂11月1日至2日,來自28個國家,包括英國、美國、歐盟、印度和中國的官員與領先的AI技術高管和研究人員一起,在電腦的誕生地英國布萊切利公園莊園出席了首屆人工智能安全峰會(AI Safety Summit)。
會議圍繞著AI被用於惡意目的的可能性進行了討論,會後,與會者共同簽署了《布萊切利宣言》。宣言詳細闡述了人類在AI面前所處的直接風險和悲觀的預測。
宣言強調AI創造者有責任確保其系統安全,並致力於開展國際合作以減少這些風險。
責任編輯:連書華#