國內(nèi)專業(yè)國資交易資訊網(wǎng)站

        悉國資交易項(xiàng)目時訊

        當(dāng)前位置: 首頁 > 產(chǎn)經(jīng)資訊 > 科技動態(tài)

        霍金預(yù)言人工智能將摧毀人類

         

          3月15日消息,霍金再發(fā)警告,人工智能已成優(yōu)勢群體將用戰(zhàn)爭摧毀人類。霍金是目前世界上最偉大的人之一,早前他就一直在提出人工智能對人類未來發(fā)展的危害,近日,霍金再發(fā)警告稱“人工智能已經(jīng)慢慢補(bǔ)受人類控制,以此發(fā)展下去,人類必將成為弱勢群體,而未來新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢,它們可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀我們。”對于人工智能,霍金一直很擔(dān)憂,他不能確定人類究竟人能不能控制住AI。這也是目前世界上的有一大難題。

         

          最近,霍金對從地外生命到人工智能(AI)等一些熱門話題表達(dá)了自己的觀點(diǎn)。對于后者,他表示出非常擔(dān)憂。他并不反對開發(fā)人工智能技術(shù),事實(shí)上,他曾經(jīng)說過人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學(xué)家和思想家一樣,霍金擔(dān)心人工智能的崛起可能帶來各種負(fù)面的副作用。

         

          報(bào)道說,霍金慷慨地分享他對世界的觀察,并提出關(guān)于世界所面臨的問題的警告。他認(rèn)為,世界的毀滅已經(jīng)逼近,人類創(chuàng)造了可以毀滅地球的科技,卻沒有建立有效的機(jī)制去防止毀滅的發(fā)生。

         

          這位全球知名的物理學(xué)家認(rèn)為,人類的科技進(jìn)步太過迅速,而這個巨大的步伐卻可能經(jīng)由生化或核子戰(zhàn)爭的方式摧毀人類。人類唯一的辦法,就是運(yùn)用其邏輯與理性去控制這個可能即將到來的毀滅。

         

          霍金還說,當(dāng)這些人工智能學(xué)會自我思考并適了人類的環(huán)境,人類等于是慢慢走向滅絕。雖然人工智能的進(jìn)展可以讓人類受益,包括根除疾疾、戰(zhàn)爭與貧窮,但它也有負(fù)面的影響,人類的貪婪與愚蠢是人類毀滅的根源。

         

          霍金最后總結(jié)道,人類的智商讓他可以創(chuàng)造出最后將可毀滅世界的科技,但人類卻至今沒有發(fā)展出可以避開此命運(yùn)的能力。

         

          他已就人工智能對中產(chǎn)階級工作崗位的影響向我們發(fā)出警告,并與特斯拉CEO埃隆·馬斯克(ElonMusk)一起,呼吁禁止開發(fā)用于軍事用途的人工智能機(jī)器人。他也擔(dān)心人工智能可能會接管世界,或者更糟糕的是,它會終止這個世界。現(xiàn)在,他在接受英國《泰晤士報(bào)》采訪時表示,防御人工智能崛起的最好方式,是組建可以控制這種技術(shù)的“某種形式的世界政府”。

         

          霍金接著解釋了他建立這樣一家國際管理機(jī)構(gòu)的理由:

         

          自人類文明開始以來,人類的積極進(jìn)取是有益的,因?yàn)樗哂忻鞔_的生存優(yōu)勢。它是在達(dá)爾文進(jìn)化過程中滲透到我們?nèi)祟惢虻摹H欢F(xiàn)在技術(shù)的發(fā)展速度,使這種積極進(jìn)取可能以核戰(zhàn)爭或生物戰(zhàn)爭的方式摧毀我們?nèi)祟悺N覀冃枰眠壿嫼屠硇詠砜刂七@種繼承下來的本能。

         

          為了跟上人工智能的發(fā)展,我們必須學(xué)會適應(yīng)。霍金在2014年年底表示:“人工智能的發(fā)展可能會導(dǎo)致人類的終結(jié)。它將自己發(fā)展自己,并以不斷增長的速度重新設(shè)計(jì)自己。人類則受到緩慢的生物進(jìn)化限制,將無法與它競爭,并最終將被它取代。”

         

          他認(rèn)為這些人工智能機(jī)器人拋棄我們,不會是出于任何情感的原因:“人工智能的真正風(fēng)險不是它有惡意,而是它的能力。一個有超常智慧的人工智能能將非常善于實(shí)現(xiàn)目標(biāo),如果那些目標(biāo)與我們的目標(biāo)不一致,那我們就麻煩了。”

         

          因此,根據(jù)霍金的看法,某種形式的管理機(jī)構(gòu)和快速適應(yīng)的能力——這是即將到來的人工智能或超級智能時代我們生存的法寶。幸運(yùn)的是,這樣的機(jī)構(gòu)已經(jīng)出現(xiàn)。這些機(jī)構(gòu),例如“人工智能伙伴關(guān)系”(PartnershiponAI)和人工智能倫理與治理基金(EthicsandGovernanceofArtificialIntelligenceFund),已經(jīng)開始制定有關(guān)指導(dǎo)方針或框架,以讓人們更負(fù)責(zé)任地開發(fā)人工智能技術(shù)。國際電子電氣工程協(xié)會(IEEE)還發(fā)布了世界首個有關(guān)人工智能道德準(zhǔn)則的“指南”。盡管未來的一切難以預(yù)料,霍金對未來仍然感到樂觀:“這一切聽起來有點(diǎn)像厄運(yùn)來臨,但我仍是一個樂觀主義者。我認(rèn)為人類會奮起迎接這些挑戰(zhàn)。”

         

          霍金表示:自從人類文明形成以來,來自生存能力優(yōu)勢群體的侵略就一直存在,而未來新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢,它們可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。霍金還就如何應(yīng)對人工智能的威脅給出了自己的建議。霍金認(rèn)為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅,但他同時認(rèn)為“世界政府”本身也有問題,因?yàn)檫@樣一個政府可能會施行暴政。實(shí)際上,霍金是人工智能技術(shù)的支持者,霍金認(rèn)為,如今AI似乎已經(jīng)滲透到各個領(lǐng)域,包括推動自動汽車進(jìn)步,支持Facebook的廣告篩選功能,并通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。AI甚至可幫助根除長期存在的社會挑戰(zhàn),比如疾病和貧困等。

         

          但霍金也一直對AI帶來的潛在挑戰(zhàn)表示擔(dān)憂。2015年9月,霍金在美國網(wǎng)站reddit的AMA(問我任何問題)專欄中談到,他擔(dān)心聰明能干的AI會讓人類滅亡。

         

          一個超級聰明的AI可以非常好地實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)都沒有與我們?nèi)祟愐恢拢覀內(nèi)祟惥吐闊┝恕?/span>

         

          來源:科技訊

        需要進(jìn)一步了解本文信息,請點(diǎn)擊在線溝通或撥

        打電話:010-52401598/52297285

        色老板亚洲视频免在线观| 亚洲一区二区三区在线观看网站| 国产精品亚洲综合天堂夜夜| 亚洲一级片在线观看| 久久亚洲美女精品国产精品| 亚洲精品高清国产一久久| 国产亚洲3p无码一区二区| 亚洲欧洲成人精品香蕉网| 亚洲第一福利网站在线观看| 国产在亚洲线视频观看| 国产精品久久久久久亚洲小说 | 伊人亚洲综合青草青草久热| 成人伊人亚洲人综合网站222| 老司机亚洲精品影院在线观看| 亚洲女子高潮不断爆白浆| 亚洲中文字幕乱码熟女在线| 亚洲综合丁香婷婷六月香| 亚洲最大天堂无码精品区| 亚洲熟女综合色一区二区三区 | 亚洲人成国产精品无码| 亚洲福利在线播放| 中文字幕在亚洲第一在线| 国产亚洲成归v人片在线观看| 中文字幕不卡亚洲 | 亚洲男人天堂2020| 久久亚洲色一区二区三区| 亚洲熟妇中文字幕五十中出| 国产亚洲精久久久久久无码| 亚洲av日韩av激情亚洲| 亚洲一区二区三区日本久久九| 亚洲经典在线观看| 亚洲av永久无码精品三区在线4| ass亚洲**毛茸茸pics| 亚洲精品国产suv一区88| 国产成人精品久久亚洲高清不卡| 亚洲第一黄色网址| 亚洲精品乱码久久久久久 | 久久亚洲精品专区蓝色区| 亚洲高清有码中文字| 亚洲高清国产拍精品熟女| 亚洲AV无码专区日韩|