對人工智慧兩大誤解:無需擔憂和永不出錯

【記者張秉開/編譯】
谷歌AlphaGo機器圍棋手戰勝韓國頂尖圍棋高手李世石,引發全球熱議人工智慧和人類能力之優劣的討論。有人認為人工智慧可以彌補人的不足,可以為人服務,使人受益;有人擔憂人工智慧將威脅人類的生存或者控制人類等等。

據科技網站gizmodo近日報導,對於如何判斷人工智慧的優劣,需要注意對它的誤解,才能有助於作出判斷。

誤解:我們無需擔憂人工智能

現實:
今年一月,臉書創始人祖克伯(Mark Zuckerberg)說,我們不應該害怕人工智慧,它會為人們做很多奇妙的好事。實際上,祖克伯說對了一半。

我們不能保證所有人工智慧產品都對人類有益。因為人工智慧是計算機程序,避免不了受病毒程式的影響。一旦帶有病毒的人工智慧機器在運行,會有什麼後果?

很多著名人士提出,人們應該警惕人工智慧的潛在危險。物理學大師霍金(Stephen Hawking)多次表示,人工智慧的風險大到足以使人類滅絕。他認為,未來100年內,人工智慧的機器人將反過來控制人類。

特斯拉汽車公司創始人馬斯克(Elon Musk)形容人工智慧是「召喚惡魔」。他說:「如果要我猜人類最大的生存威脅是什麼,我想那就是人工智慧。」

微軟公司創辦人蓋茲(Bill Gates)表示,低度人工智慧可成為替代勞工的工具,但數十年後出現的「超級智慧」系統會「厲害到令人擔憂」。

誤解:人工智慧不會出錯

現實:
人工智慧會出錯,因為它本身是一種程序,無論程序怎樣完善,都不可能完美無瑕。而且,如何糾正人工智慧出錯,不是簡單的修改程序等步驟能輕易解決的。

以谷歌的AlphaGo為例,在與李世石第四局對弈中,第79子時犯了錯誤,之後步步出錯,因此輸給李世石。

AlphaGo的開發者之一哈薩比斯(Demis Hassabis)在推特上表示,AlphaGo犯的錯誤直到87子才發現,但為時已晚,其勝率從70%降至40%以下。

業界人士分析,其原因是AlphaGo在複雜情況下的判斷還是不夠客觀,碰到存儲之外的圍棋下法會犯錯誤,而且不能及時發現所犯錯誤,因此接連出現低級錯誤。這種錯誤對人類來說,是應該很快就會發現並給予糾正。

誤解:人工智慧永遠不會達到人的智慧水平

現實:
人工智慧遲早會達到人的智力水平,具有高度的邏輯、推力、綜合、分析、演繹等等能力。

1996年2月,IBM的超級電腦「深藍」(Deep Blue)首次挑戰國際象棋世界冠軍卡斯帕羅夫(Garry Kasparov),以2:4落敗。1997年5月,再度挑戰卡斯帕羅夫,「深藍」以3.5:2.5擊敗卡斯帕羅夫,成為第一個在符合比賽規則擊敗國際象棋世界冠軍的電腦系統。

近日谷歌的AlphaGo以4:1贏了李世石。但是,從「深藍」到谷歌AlphaGo的人工發展,不只是硬件(如AlphaGo硬件性能至少是深藍的1千倍),其依據的運算原理也有極大的發展,從窮舉法變成「人工神經網路」,所以AlphaGo有一種類似人的學習技能,能夠估計、分析和判斷。

所以紐約大學的心理學家馬庫斯(Gary Marcus)說,人工智慧會超過人,問題只是時間而已。

報導說,因為至今為止人類無法解開「意識」之謎,所以人工智慧面臨不可逾越的障礙——如何具有人的意識。微軟聯合創始人艾倫(Paul Allen)認為,人類還沒有解開人自身的意識之謎,因此無法造出具有人意識那樣的智能機器。
1996年2月,IBM的超級電腦「深藍」首次挑戰國際象棋世界冠軍卡斯帕羅夫。(維基百科)1996年2月,IBM的超級電腦「深藍」首次挑戰國際象棋世界冠軍卡斯帕羅夫。(維基百科)

麻省理工學院製造的情緒機器人 Kismet。(維基百科)麻省理工學院製造的情緒機器人 Kismet。(維基百科)

延伸閱讀
人機對弈最終回 AlphaGo逆轉勝
2016年03月15日 | 8年前
取消