霍金:科技發展令人類在未來自食可怕苦果

霍金表示,科學技術進步會帶來更多新麻煩,現在人類處在幾個世紀以來最危險的時期。而人類想移民太空生活至少還需幾百年時間。圖為《絕地救援》劇照。(福斯提供)
霍金表示,科學技術進步會帶來更多新麻煩,現在人類處在幾個世紀以來最危險的時期。而人類想移民太空生活至少還需幾百年時間。圖為《絕地救援》劇照。(福斯提供)

【記者鄭小寒/綜合報導】
著名物理學家史提芬‧霍金在一次最新演講中再次強調,人類自身創造出許多危機,包括核戰、全球氣候變暖、基因改造病毒等等,將令人類在未來「自食其果」。他還直言說,科學技術進步會帶來更多新麻煩,現在人類處在幾個世紀以來最危險的時期。而人類想移民太空生活至少還需幾百年時間。

霍金是在BBC瑞思系列演講(Reith Lectures)中闡述自己對科技的看法的。霍金表示,幾乎可以確定,地球災難發生概率在未來數千年到1萬年間將顯著增多。

不過,他也表示,如果人類最終得以在其它星球建立家園,或許還能倖存下來。他說:「然而,至少在未來數百年裡,我們還無法在太空世界建起人類生存的環境。所以現在必須非常小心。」

人類必須認識到進步風險並控制它

另據英國《衛報》報導,霍金的言論獲得英國皇家天文學家里斯勳爵(Lord Rees)等人的贊同。里斯勳爵在2003年曾出版《我們最後的世紀》(Our Final Century)一書,書中表示出對人類自我毀滅風險的擔憂。

除提出他擔憂外,霍金也表示,人類不會停止前進,人類必須認識到進步的風險並控制它。

霍金還補充說,年輕科學家應該對「這個龐大複雜的宇宙」有好奇心,並且需要了解科學和技術是如何改變世界,以及需要把這些信息告知公眾。

在本次瑞思演講中,霍金為聽眾介紹黑洞領域的研究進展。而上述針對人類行為的警告,則是他在回答聽眾問題時講述的。

在這次演講之前,霍金也曾表示,人工智慧(AI)的潛在風險強大到足以使人類滅絕。他認為,未來100年內,人工智慧的機器人將反過來控制人類。

去年7月,霍金和特斯拉汽車公司創始人馬斯克(Elon Musk)聯合1000名機器人專家在一封公開信中警告稱,自動化武器系統將成為未來的卡拉什尼科夫(卡拉什尼科夫為蘇俄武器設計專家,代表作為AK-47步槍)。

公開信呼籲「徹底禁止脫離有效人工控制的進攻性自動化武器系統」,以防止發生全球智慧武器方面的軍備競賽。

自我樂觀 從疾病中振作

《衛報》報導說,霍金在1月初剛過74歲生日,在他21歲時,他獲知罹患一種罕見的運動神經元慢性疾病。他表示,那時的自己對人生幾乎沒有期望。但現在已經過去了50多年,霍金說,其實自己在其它方面一直很幸運。在霍金進行理論物理學研究時,這種身體殘疾沒有成為研究障礙。

在觀眾提問他如何從疾病中奮起時,霍金表示,工作和自己的幽默感起到很大作用。他說,無論生活多麼艱辛,不生氣都是很重要的。因為如果你不能自我樂觀,那麼可能會失去所有希望。

BBC報導說,霍金的女兒露西已經和他合寫了一本兒童科學書,書中會提及支撐霍金的動力。露西說:「我認為他是一個非常頑強的人,對於『向前看』有一份令人羨慕的執著與期望……他所有的能量、精神都讓他不斷向前看。」


延伸閱讀
自拍鏡問世 功能比自拍棒還多
2015年11月19日 | 9年前
霍金連署禁用 憂AI武器淪殺人工具
2015年07月30日 | 9年前
與機器人為伍 是福是禍?
2015年07月21日 | 9年前
取消