-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
為什么說人工智能會毀滅人類
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于為什么說人工智能會毀滅人類的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、為什么有了機器人三定律,AI依舊有可能毀滅人類?
阿西莫夫的機器人定律試圖解決人工智能起義的威脅。使機器人遵守這些法律的技術(shù)障礙是我們目前在使它們了解法律方面的局限性。真正的障礙(哲學(xué)上和倫理上)可能是我們的假設(shè),在如此模糊的約束下,機器人將按照我們希望的方式行事,即使我們不知道我們的意思。
20世紀中葉,阿西莫夫提出了三條法律。如果我們遵守這些法律,我們就能阻止機器人的崛起。這三部法律包括:
第一定律:機器人不應(yīng)傷害人類,也不應(yīng)讓人類因無所作為而受到傷害;
第二定律:機器人必須服從人類的命令,除非這些命令與第一定律相沖突;
第三定律:只要保護不違反第一定律或第二定律,機器人就必須保護它們的生存。
在科幻大片《終結(jié)者》中,機器人想要完全占領(lǐng)世界,殺死所有人類。我們不禁要問,“如果電影中的場景在現(xiàn)實中重演,會發(fā)生什么?”我們提出這樣的問題不應(yīng)該被指責(zé),因為通過電影和科幻故事,機器人占領(lǐng)地球的場景幾乎無處不在,所以我們對人工智能的未來形成了這樣的印象。
回到現(xiàn)在。為了符合阿西莫夫的觀點,讓我們假設(shè)我們有足夠復(fù)雜的人工智能代理來適應(yīng)這些定律。為了便于討論,我們還假設(shè)它們雖然是敘事機制的規(guī)則,但也適用于現(xiàn)實世界。
技術(shù)問題:如果法律是英文的,人工智能代理只能處理中文怎么辦?或者即使這個機構(gòu)是美國制造的,我們怎么知道它是如何理解法律的?因此,我們需要一種方法將法律翻譯成每一種可能的語言,以及將這些詞背后的含義傳達給每一種可能的語言(為了涵蓋所有可能的情況,我們還必須使用已經(jīng)滅絕的語言,如拉丁語和二進制機器語言)。
二、人工智能真的會危害人類嗎?
1956年,“人工智能”這一學(xué)術(shù)術(shù)語首次被提出,“人工智能”也正式成為了一門新興學(xué)科。但在隨后的幾十年里,”人工智能“給我們的印象更多地是在實驗室以及電影里。但在2013年前后,以谷歌(微博)、微軟、Facebook為代表的科技巨頭接連入局人工智能領(lǐng)域,再加上鴻海等廠商計劃利用機器人工作,“人工智能“逐漸走進了我們的生活。
面對科技界一股前所未有的”人工智能大潮“,馬斯克、蓋茨等科技大佬坐不住了。2014年8月,馬斯克在Twitter發(fā)布一條狀態(tài):“Bostrom撰寫的《超級智能》一書值得一讀,我們必須對人工智能超級謹慎,它的潛力可能比核彈還危險?!?比爾•蓋茨 也在最近的一次活動上表示,機器將取代人類從事各種工作,如果我們能夠處理得好,它們應(yīng)該能發(fā)揮積極作用??墒菙?shù)十年后,人工智能將發(fā)展到足以令人擔(dān)憂的程度。
人工智能的隱患:或沖擊現(xiàn)有社會體系
2月初,致力于“降低人類面臨的現(xiàn)存風(fēng)險”的生命未來研究所(Future of Life Institute)的數(shù)百名頂尖科學(xué)家在一封公開信中簽名,公開信呼吁科技界在推動人工智能發(fā)展的同時,徹底審視人工智能的發(fā)展將對人類社會產(chǎn)生怎樣的影響。
這封信的作者承認,人工智能在語音識別、圖像分類、自動駕駛汽車、機器翻譯和答疑系統(tǒng)等領(lǐng)域取得了顯著成功,并認為這些研究有助于消滅疾病和貧困。但他們堅持認為,“人工智能系統(tǒng)必須做我們希望它做的事情”,科學(xué)界應(yīng)確立 “有助于最大限度提高人工智能社會效益”的研究目標。
公開信強調(diào),未來的人工智能可能在計算機安全、經(jīng)濟、法律和哲學(xué)等領(lǐng)域影響社會,但就是這種無處不在的潛在性,可以引發(fā)多方面的危機。例如,科學(xué)家們認為,如果未來經(jīng)濟的某些部分變得自動化,工人以及工人工資會受到很大影響,人工智能專家們不得不要重視。人工智能應(yīng)該正視下列問題:致命的自動化武器是否符合人道主義法? 當(dāng)人工智能系統(tǒng)從監(jiān)控攝像頭、電話線路和電子郵件中收集數(shù)據(jù)時,如何避免侵犯隱私權(quán)?
來自英國牛津大學(xué)的一群學(xué)者去年在一篇博客文章中寫道:“當(dāng)一臺機器發(fā)生錯誤,其錯誤方式可能比人的失誤更有戲劇性,可能會帶來更多不可預(yù)知的結(jié)果。簡單算法在很大程度上是可預(yù)測的,但在不尋常的情況下,它可能作出離奇的決定?!?/p>
與這些比較現(xiàn)實的問題相比,知名科學(xué)家霍金想的更為長遠。霍金在接受BBC采訪時表示,如果技術(shù)具有與人類類似的能力,“它將脫離控制,并以加速度重新設(shè)計自己。更可怕的是,由于生物學(xué)意義上的限制,人類無法趕上技術(shù)的發(fā)展速度?!盎艚饘θ祟惖奈磥肀硎緭?dān)憂:“人類由于受到緩慢的生物進化的限制,無法與機器競爭,并會被取代。全人工智能的發(fā)展可能導(dǎo)致人類的終結(jié)。”
從這些科學(xué)家的言論中,我們可以看到,科技界、科學(xué)界對人工智能的擔(dān)憂主要來自兩方面:一方面是人工智能對人類工作、生活方式的改變,可能影響到現(xiàn)有的法律體系、道德標準以及利益分配的模式等等,而人類做出改變的速度未必能跟的上人工智能的發(fā)展速度,這就會對社會現(xiàn)有的體制造成沖擊,從而引發(fā)混亂;另一方面是,人工智能讓人類越來越缺乏思考,而其自身則有可能越來越聰明,從而威脅到人類的生存。
預(yù)言成真?“毀滅論“有些危言聳聽
對于馬斯克、蓋茨、霍金等人的言論,谷歌董事長施密特率先發(fā)起反駁。施密特的身份很特殊,作為谷歌的董事長,他曾親身參與許多世界上最復(fù)雜的人工智能系統(tǒng)的研發(fā),從自動駕駛汽車到谷歌的預(yù)測性搜索引擎等,谷歌去年甚至還推出了自己的內(nèi)部機器人實驗室。施密特認為,所有對機器將搶走人類工作、占領(lǐng)世界的恐懼都毫無根據(jù),并且希望人們能夠意識到:機器人會成為我們的朋友。
施密特說:“對于人工智能的擔(dān)憂,都是正常的。但是回顧歷史你會發(fā)現(xiàn),這些絕對是錯誤的。我們只是希望能通過更多機械化的方式,能讓我們穿上更好的衣服,而且歷史的經(jīng)驗已經(jīng)證明,過去的經(jīng)濟繁榮時期,大多數(shù)是因為采用新技術(shù)而引發(fā)的。”
IBM全球副總裁王陽也曾對騰訊科技表示,當(dāng)科技取得突飛猛進的成果時,總是讓人感到害怕,但真正重要的是掌握技術(shù)的人?!翱偸怯行皭旱娜擞眯录夹g(shù)來搗蛋”,技術(shù)的發(fā)展是勢不可擋的,比如在好萊塢大片中,經(jīng)??梢钥吹叫皭簞萘E用高科技技術(shù),但人類必須盡快掌握這些以抵抗非正義者的侵略。總之,對于新技術(shù)的發(fā)展,難免會存在爭論,但科學(xué)的進步總歸是為人類帶來更美好的未來?!?/p>
托尼•科恩是英國利茲大學(xué)自動推理教授。他說,完全的人工智能“還有很長的一段路要走,從現(xiàn)在發(fā)展的速度來看,我認為仍然需要幾近上百年?!笨贫髡J為,說盡管識別程序和語音識別取得了長足進步,在開放混亂的環(huán)境里,機器人表現(xiàn)很差,人工智能最終面臨的最大障礙是“機器畢竟是機器“。
從多數(shù)的人觀點來看,“人工智能毀滅人類”的論斷似乎有些夸張,現(xiàn)有的科學(xué)技術(shù)只能讓機器從事一些較為基礎(chǔ)的事情,例如生產(chǎn)線上的一些固定動作等等,甚至連無人駕駛汽車上的智能系統(tǒng)都并不完善,更談不上人工智能具有思維、情感,能夠?qū)θ祟惖纳嬖斐赏{。但是有一點卻不能忽視,隨著科學(xué)技術(shù)的進步,自動化的人工智能會越來越多地出現(xiàn)在我們的工作、生活,機器代替人類工作很有可能在不遠的將來成為現(xiàn)實。
無人駕駛汽車算是最接近我們的一種人工智能,但除了技術(shù)因素外,它還面臨很多挑戰(zhàn)。例如,谷歌無人駕駛汽車出了車禍,造成了嚴重的后果,是車主、谷歌,還是驅(qū)動汽車的算法、感應(yīng)器以及所有控制系統(tǒng)來負責(zé)交通事故?很遺憾,現(xiàn)有的法律系統(tǒng)未能跟上現(xiàn)代社會、企業(yè)或機器人發(fā)展的步伐,根本給不出明確的答案。
我們還應(yīng)該想到,當(dāng)機器人讓大批工人失業(yè)時,我們該怎么辦?當(dāng)機器人誤操作引發(fā)事故,現(xiàn)有法律如何厘清責(zé)任?當(dāng)黑客借助人工智能犯罪時,我們又該如何防范?這些都應(yīng)該是我們現(xiàn)在需要正視的問題。
三、人工智能會毀滅人類嗎?
人工智能是不會毀滅人類的,毀滅人類的只有人類自己。人工智能跟人類在生存上并沒有什么沖突,人工智能不會累,不用吃東西,也沒人的欲望,他只是會思考而已。
四、霍金曾預(yù)言人類文明最大的威脅是人工智能,為什么說人工智能威脅到人類文明?
霍金是享譽世界的物理學(xué)家,著名的黑洞理論就是他所建立起來的,人們將他稱作是輪椅上的巨人,他的一舉一動,發(fā)表的如何言論都會在科學(xué)界乃至是世界上產(chǎn)生軒然大波,霍金還曾預(yù)言人類文明目前最大的威脅是人工智能,為什么他會這樣說呢?
我們知道,科學(xué)技術(shù)是在不斷發(fā)展的,科技的力量是不可忽視的,于是在發(fā)展的過程中,智能機器出現(xiàn)了,后來隨之而來的是人工智能。人工智能可以說是偉大的創(chuàng)造,在世界圍棋冠軍敗給人工智能后,人工智能就統(tǒng)治了所有的棋類,這代表著人工智能的力量是可以超越人類的。
人們常說,物極必反,人工智能越強大,對我們的威脅就越大,因為人工智能不像以往的武器一樣,它是可以產(chǎn)生自己的意識,設(shè)想一下,有一天,乖乖聽話的人工智能不在聽從人類的安排,而是想著如何取代人類,這是多么恐怖的一件事,而且人工智能遠比你想的還要強大,它們可以把自己的思維認知傳遞給別的人工智能,一旦人工智能有了自我意識,再聯(lián)合其他的人工智能,后果將會不堪設(shè)想。
所以霍金先生的擔(dān)憂是不無道理的,人類文明目前最大的威脅就是人工智能,雖然人工智能現(xiàn)在還在發(fā)展,但誰知道這個有自我意識的機器人會不會想要擺脫人類的控制,其實不止是霍金,很多人也認為人工智能是最大的威脅。
以上就是關(guān)于為什么說人工智能會毀滅人類相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
最近發(fā)現(xiàn)右手有時會發(fā)抖為什么(我的右手有時候會發(fā)抖是怎么回事)
分銷渠道就是營銷渠道正確嗎(分銷渠道就是營銷渠道正確嗎為什么)
可食蔬果景觀設(shè)計(可食蔬果景觀設(shè)計圖片)