<legend id="avzgi"><s id="avzgi"></s></legend>

        <i id="avzgi"></i>

        霍金預言人工智能將摧毀人類(lèi)

         

          3月15日消息,霍金再發(fā)警告,人工智能已成優(yōu)勢群體將用戰爭摧毀人類(lèi)?;艚鹗悄壳笆澜缟献顐ゴ蟮娜酥?,早前他就一直在提出人工智能對人類(lèi)未來(lái)發(fā)展的危害,近日,霍金再發(fā)警告稱(chēng)“人工智能已經(jīng)慢慢補受人類(lèi)控制,以此發(fā)展下去,人類(lèi)必將成為弱勢群體,而未來(lái)新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢,它們可能會(huì )通過(guò)核戰爭或生物戰爭摧毀我們。”對于人工智能,霍金一直很擔憂(yōu),他不能確定人類(lèi)究竟人能不能控制住AI。這也是目前世界上的有一大難題。

         

          最近,霍金對從地外生命到人工智能(AI)等一些熱門(mén)話(huà)題表達了自己的觀(guān)點(diǎn)。對于后者,他表示出非常擔憂(yōu)。他并不反對開(kāi)發(fā)人工智能技術(shù),事實(shí)上,他曾經(jīng)說(shuō)過(guò)人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學(xué)家和思想家一樣,霍金擔心人工智能的崛起可能帶來(lái)各種負面的副作用。

         

          報道說(shuō),霍金慷慨地分享他對世界的觀(guān)察,并提出關(guān)于世界所面臨的問(wèn)題的警告。他認為,世界的毀滅已經(jīng)逼近,人類(lèi)創(chuàng )造了可以毀滅地球的科技,卻沒(méi)有建立有效的機制去防止毀滅的發(fā)生。

         

          這位全球知名的物理學(xué)家認為,人類(lèi)的科技進(jìn)步太過(guò)迅速,而這個(gè)巨大的步伐卻可能經(jīng)由生化或核子戰爭的方式摧毀人類(lèi)。人類(lèi)唯一的辦法,就是運用其邏輯與理性去控制這個(gè)可能即將到來(lái)的毀滅。

         

          霍金還說(shuō),當這些人工智能學(xué)會(huì )自我思考并適了人類(lèi)的環(huán)境,人類(lèi)等于是慢慢走向滅絕。雖然人工智能的進(jìn)展可以讓人類(lèi)受益,包括根除疾疾、戰爭與貧窮,但它也有負面的影響,人類(lèi)的貪婪與愚蠢是人類(lèi)毀滅的根源。

         

          霍金最后總結道,人類(lèi)的智商讓他可以創(chuàng )造出最后將可毀滅世界的科技,但人類(lèi)卻至今沒(méi)有發(fā)展出可以避開(kāi)此命運的能力。

         

          他已就人工智能對中產(chǎn)階級工作崗位的影響向我們發(fā)出警告,并與特斯拉CEO埃隆·馬斯克(ElonMusk)一起,呼吁禁止開(kāi)發(fā)用于軍事用途的人工智能機器人。他也擔心人工智能可能會(huì )接管世界,或者更糟糕的是,它會(huì )終止這個(gè)世界?,F在,他在接受英國《泰晤士報》采訪(fǎng)時(shí)表示,防御人工智能崛起的最好方式,是組建可以控制這種技術(shù)的“某種形式的世界政府”。

         

          霍金接著(zhù)解釋了他建立這樣一家國際管理機構的理由:

         

          自人類(lèi)文明開(kāi)始以來(lái),人類(lèi)的積極進(jìn)取是有益的,因為它具有明確的生存優(yōu)勢。它是在達爾文進(jìn)化過(guò)程中滲透到我們人類(lèi)基因的。然而,現在技術(shù)的發(fā)展速度,使這種積極進(jìn)取可能以核戰爭或生物戰爭的方式摧毀我們人類(lèi)。我們需要利用邏輯和理性來(lái)控制這種繼承下來(lái)的本能。

         

          為了跟上人工智能的發(fā)展,我們必須學(xué)會(huì )適應?;艚鹪?014年年底表示:“人工智能的發(fā)展可能會(huì )導致人類(lèi)的終結。它將自己發(fā)展自己,并以不斷增長(cháng)的速度重新設計自己。人類(lèi)則受到緩慢的生物進(jìn)化限制,將無(wú)法與它競爭,并最終將被它取代。”

         

          他認為這些人工智能機器人拋棄我們,不會(huì )是出于任何情感的原因:“人工智能的真正風(fēng)險不是它有惡意,而是它的能力。一個(gè)有超常智慧的人工智能能將非常善于實(shí)現目標,如果那些目標與我們的目標不一致,那我們就麻煩了。”

         

          因此,根據霍金的看法,某種形式的管理機構和快速適應的能力——這是即將到來(lái)的人工智能或超級智能時(shí)代我們生存的法寶。幸運的是,這樣的機構已經(jīng)出現。這些機構,例如“人工智能伙伴關(guān)系”(PartnershiponAI)和人工智能倫理與治理基金(EthicsandGovernanceofArtificialIntelligenceFund),已經(jīng)開(kāi)始制定有關(guān)指導方針或框架,以讓人們更負責任地開(kāi)發(fā)人工智能技術(shù)。國際電子電氣工程協(xié)會(huì )(IEEE)還發(fā)布了世界首個(gè)有關(guān)人工智能道德準則的“指南”。盡管未來(lái)的一切難以預料,霍金對未來(lái)仍然感到樂(lè )觀(guān):“這一切聽(tīng)起來(lái)有點(diǎn)像厄運來(lái)臨,但我仍是一個(gè)樂(lè )觀(guān)主義者。我認為人類(lèi)會(huì )奮起迎接這些挑戰。”

         

          霍金表示:自從人類(lèi)文明形成以來(lái),來(lái)自生存能力優(yōu)勢群體的侵略就一直存在,而未來(lái)新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢,它們可能會(huì )通過(guò)核戰爭或生物戰爭摧毀我們。因此人類(lèi)需要利用邏輯和理性去控制未來(lái)可能出現的威脅?;艚疬€就如何應對人工智能的威脅給出了自己的建議?;艚鹫J為,人類(lèi)可以組成某種形式的“世界政府”來(lái)防范人工智能可能帶來(lái)的威脅,但他同時(shí)認為“世界政府”本身也有問(wèn)題,因為這樣一個(gè)政府可能會(huì )施行暴政。實(shí)際上,霍金是人工智能技術(shù)的支持者,霍金認為,如今AI似乎已經(jīng)滲透到各個(gè)領(lǐng)域,包括推動(dòng)自動(dòng)汽車(chē)進(jìn)步,支持Facebook的廣告篩選功能,并通過(guò)蘋(píng)果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動(dòng)。AI甚至可幫助根除長(cháng)期存在的社會(huì )挑戰,比如疾病和貧困等。

         

          但霍金也一直對AI帶來(lái)的潛在挑戰表示擔憂(yōu)。2015年9月,霍金在美國網(wǎng)站reddit的AMA(問(wèn)我任何問(wèn)題)專(zhuān)欄中談到,他擔心聰明能干的AI會(huì )讓人類(lèi)滅亡。

         

          一個(gè)超級聰明的AI可以非常好地實(shí)現它的目標,如果這些目標都沒(méi)有與我們人類(lèi)一致,我們人類(lèi)就麻煩了。

         

          來(lái)源:科技訊

        需要進(jìn)一步了解本文信息,請點(diǎn)擊在線(xiàn)溝通或撥

        打電話(huà):010-52401598/52297285

        伊人精品青青草原_精品人妻一区二区_国产对白在线观看_伊人久久大香线蕉av网禁呦
        <legend id="avzgi"><s id="avzgi"></s></legend>

              <i id="avzgi"></i>