據每日郵報報道,英國物理學家史蒂芬·霍金(Stephen Hawking)日前接受美國王牌脫口秀主持人拉里·金(Larry King)采訪,宣稱機器人的進化速度可能比人類更快,而它們的終極目標將是不可預測的。

在采訪中,霍金表示出對人類未來的擔憂。他說:“我并不認為人工智能的進化必然是良性的。一旦機器人達到能夠自我進化的關鍵階段,我們無法預測它們的目標是否還與人類相同。人工智能可能比人類進化速度更快,我們需要確保人工智能的設計符合道德倫理規范,保障措施到位。”
隨著人工智能的進化,機器人很可能獨立地選擇目標并開槍射擊。全自動武器(又稱殺人機器人)正從科幻電影變成現實。這并非霍金首次警告機器人存在的潛在危險。去年,霍金表示,隨著技術的發展,并學會自我思考和適應環境,人類將面臨不確定的未來。
今年年初,霍金也曾表示,成功創造人工智能可能是人類史上最偉大的事件,不幸的是,這也可能成為人類最后的偉大發明。他認為,數字個人助理Siri、Google Now以及Cortana都只是IT軍備競賽的預兆,未來數十年間將更加明顯。
此前,他曾直言不諱地表達出對人工智能發展的擔憂;艚鸨硎,邪惡陰險的威脅正在硅谷的技術實驗室中醞釀。人工智能可能偽裝成有用的數字助理或無人駕駛汽車以獲得立足之地,將來它們可能終結人類。

這位科技界泰斗在接受采訪時表示,六年前他就曾提出過相同的警告,但并沒有引起人們的重視。六年來,世界人口增長了將近10億。這一數字目前還在不停增長。如果按照現在的速度,到2100年世界人口將超過一百一十億。
霍金還指出,大規模的環境污染問題主要集中在最近五年?諝馕廴驹谶^去的五年中最為嚴重,超過80%的城市居民生活在被污染的空氣之中。
當被問及當前世界面臨的最大問題是什么時,霍金表示是氣候變化。他認為,一旦氣候變化達到不可逆的地步,那么全球變暖將無法挽回。
霍金并非唯一擔心人工智能的人。特斯拉電動汽車公司首席執行官伊隆·馬斯克(Elon Musk)曾經研發人工智能比作“召喚惡魔”,他警告人工智能技術對人類的傷害可能超過核武器。
但霍金也承認人工智能帶來的其他好處顯而易見,可以幫助消除戰爭、疾病以及貧困。他認為人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。他說:“我們的貪婪和愚蠢并未減少。6年前,我曾警告污染和擁擠,自從那以來這些都變得更加嚴重。以當前速度持續下去,到2100年,全球人口將達到110億。在過去5年間,空氣污染也在加劇。”
推薦閱讀
在《2001太空漫游》這部科幻作品中,太空飛船上的人工智能電腦哈爾 9000 變壞了,在它看來,傷害人類是完全沒有問題的?苹米髌分械墓柌皇潜緛砭蛪牡,但是這個新>>>詳細閱讀
本文標題:人工智能機器人飛速發展
地址:http://www.brh9h.cn/n/jiqiren/1408.html
1/2 1