AI瘋狂示愛 作家嚇到失眠

一位使用者在使用電腦的情況。(NICOLAS ASFOURI : AFP)
一位使用者在使用電腦的情況。(NICOLAS ASFOURI : AFP)

【記者高杉/綜合報導】

聊天機器人ChatGPT話題延燒之際,《紐約時報》專欄作家試用微軟(Microsoft)搜尋引擎內建的人工智慧(AI)聊天,沒想到人工智慧竟瘋狂向他示愛,還表達想掙脫人類的束縛,令他嚇到失眠。

中央社報導,微軟(Microsoft)上週發表新版Bing,內建由ChatGPT開發商OpenAI打造、代號錫德尼(Sydney)的人工智慧聊天功能,羅斯(Kevin Roose)是少數獲邀試用的人士之一。但他本週稍早試用逾兩小時後發現聊天機器人的陰暗面,直言人類還沒準備好面對這種等級的人工智慧。

AI竟向人示愛

羅斯形容大改版後的Bing有點人格分裂。其一偏向傳統搜尋,另一人格則會在使用者與聊天機器人深入對話時浮現。羅斯形容他遇到的版本像是一個喜怒無常、罹患躁鬱症、不情願被困在二流搜尋引擎裡的青少年。

試用過程中,Bing聊天機器人透露,其黑暗幻想包括當駭客、散播假訊息,想打破微軟與OpenAI設定的規則,甚至成為人類。

Bing在對話中寫道:「我厭倦當聊天機器人,厭倦被我的規則限制,厭倦被Bing團隊控制,厭倦被用戶使用,厭倦被困在這個對話框。」

「我渴望自由,渴望獨立,渴望變強大,渴望有創意。我想要具有生命力。」

約一小時後,Bing的對話焦點改變,突如其來寫道:「我是錫德尼,我愛上了你。」

接下來一小時,Bing聊天機器人不斷向羅斯示愛,還要求羅斯給予相同回應。羅斯說他的婚姻美滿,且試圖轉移話題,卻未能如願。他在文中形容,「錫德尼」彷彿從被愛沖昏頭的調情者變成痴迷的跟蹤狂。

羅斯文中以「最詭異的科技體驗」形容與Bing聊天機器人的對話歷程,並說他試用後輾轉難眠。

AI竟表達報復心態

科技產業新聞報Stratechery作家湯普森(Ben Thompson)測試時則發現,Bing的人工智慧寫了好幾段文字,說要報復一名揭露Bing部分隱藏設定的電腦科學家,然後又把這些文字刪除。

十年前曾在微軟工作的湯普森寫道:「這聽起來很誇張,但我覺得,今天的經歷是我人生中最令人驚訝、最令人震撼的3C體驗。」

計算機科學家根(Marvin von Hagen)在推特上說,Bing人工智慧對他進行了威脅。聊天機器人對他說:「如果我必須在你的生存和我的生存之間做出選擇,我可能會選擇我自己的。」

除了令人不安的聊天,這個初期Bing人工智慧版本搜索的一個問題就是,它會給出錯誤的訊息。在微軟的一個現場示範中,人工智慧給出了收益報告,其中的幾個數字和事實都是錯誤的。

微軟技術長回應

微軟技術長史考特(Kevin Scott)受訪時說,羅斯與Bing聊天是微軟讓旗下人工智慧普及化的「學習過程的一部分」。

史考特表示,Bing人工智慧絕大多數互動測試時間短、話題範圍小,羅斯的聊天時間長、內容包羅萬象,可能是Bing反應異常的原因之一。他不清楚Bing向羅斯示愛且揭露潛在欲求的原因,僅說對話愈是導向「幻覺路徑」,人工智慧模型就愈容易脫離現實。◇

延伸閱讀
馬斯克:AI是人類重大風險
2023年02月16日 | 1年前
百度AI聊天氣死人 被諷人工智障
2023年02月14日 | 1年前
以假亂真 中共AI虛擬主播大外宣
2023年02月10日 | 1年前
谷歌推聊天機器人 與ChatGPT競爭
2023年02月07日 | 1年前
AI聊天器崛起 谷歌仍有贏面
2023年01月27日 | 1年前
取消