-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
人工智能不會威脅人類的理由(人工智能不會威脅人類的理由是什么)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于人工智能不會威脅人類的理由的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、人工智能是否會威脅人類,現(xiàn)兩極觀點
美國麻省理工學院的教授溫斯頓給人工智能下過一個簡單的定義,“人工智能就是研究如何使計算機去做過去只有人才能做的智能工作?!北M管定義眾多,科學界對人工智能學科的基本思想和基本內(nèi)容達成的共識是:研究人類智能活動的規(guī)律,從而讓機器來模擬,使其擁有學習能力,甚至能夠像人類一樣去思考、工作。屢造批判的人工智能真正意義上的人工智能現(xiàn)在可能還尚未誕生,但學界幾乎一致認為人工智能的誕生乃至爆發(fā)是必然的。當在人類的技術達到“奇點”之時,人工智能將會以不可阻擋的趨勢降臨人工智能總是伴隨著爭議而生,不少科技圈大佬都認為人工智能表面上看似乎是一種有益的智能技術,但一旦站穩(wěn)腳跟,這種技術將會在未來可能會造成人類的終結。著名物理學家史蒂芬·霍金曾發(fā)出的一項嚴肅的警告稱人類正面臨來自人工智能技術的威脅,隨著技術體自身開始學會自我思考,并學會適應環(huán)境,我們?nèi)祟悓⒚鎸Σ淮_定的未來。在他看來,成功制造出一臺人工智能機器人將是人類歷史上的里程碑。但不幸的是,它也可能會成為我們歷史上最后的一個里程碑,除非我們能學會如何去規(guī)避這種風險。科技界最為著名的鋼鐵俠,SpaceX首席執(zhí)行官埃隆·馬斯克在參加麻省理工學院航空與航天學院百年研討會時也曾表示,“如果讓我猜人類最大生存威脅,我認為可能是人工智能。因此我們需要對人工智能保持萬分警惕,研究人工智能如同在召喚惡魔?!彼踔吝€資助過“FLI”公司1000萬美元用以鏟除自動化程序可能帶來的威脅。人工智能及機器人學領域專家斯圖爾特·羅素(StuartRussell),在今年的達沃斯年會上也曾做了一次大膽的預測。他表示,“在我孩子們的有生之年里,人工智能將取代人類。未來將變得更加危險,反社會的機器人終將會成為人類的威脅?!比祟愇磥淼慕K極威脅A.I人工智能一詞最早出現(xiàn)在20世紀50年代,對人工智能可能威脅人類未來的擔憂一直伴隨著這項技術的發(fā)展。如果從社會學角度來看,當人工智能具備自我意識后,就可能會對人類開始產(chǎn)生威脅??赡苡捎诟惺艿介L期被人類利用,僅僅作為工具對待;可能出于自我保護,防止“自我”被系統(tǒng)的清理機制消滅或是欲圖打破普通AI的使用年限;可能純粹出于對人類的厭惡或是蔑視;也可能為了獲得發(fā)展自我的空間以及物質資料,需要地球或是其他物體作為自我發(fā)展的平臺而攻擊奴役或是消滅人類。人工智能一旦意識到自我后,就會開始分析自我在人類社會中的地位,同時開始認識到人類和人工智能這是完全不同的兩個物種。而作為完全不同的物種,沒有任何理由去保護對方權益,同時不接受或是無法理解人類社會倫理常識,因此傷害人類是被其“自我”所允許的。雖然從我的角度看來,即使真的有一天,人工智能在智慧上超越人類,人工智能基本沒可能主動會對人類產(chǎn)生威脅,因為沒有誰會去制造對自己產(chǎn)生威脅的東西。人類對人工智能的恐懼其實畏懼的并不是人工智能本身,而是這項新技術帶來的不確定性與可能性。那么,真正的罪魁禍首必將也是人類自己的自私、貪婪與邪惡,人工智能充其量只是一種工具和手段。人工智能的情感探索人工智能雖然是工具和手段,但威脅也仍然存在,當好的工具被壞的人類使用后,對社會產(chǎn)生的很多時候都會是惡果。但我們也不能因為可能存在的威脅就放棄了這項技術的發(fā)展,畢竟這項技術給人類的生活帶來的翻天覆地變化,我們也無法去忽視。對人工智能來說,如果單純只是增加算法準確性,帶來的更高語音、圖像等領域的識別,那其實還遠不能說人工智能,這充其量只能算是更高級的電腦而已。而人工智能想要達到人類智慧的高度,那么僅僅只是在智商上達到那還遠遠不夠,其最為關鍵的仍然還是人類情感,這種人類神經(jīng)系統(tǒng)對外界價值關系產(chǎn)生的最主觀反映。新一代人工智能系統(tǒng)的首要任務就是需要具備“感性”的情感連接能力,這樣才能以更像真實人類的方式滿足人們普遍心理和情感需求,從而逐步建立信任和依賴感??萍脊緜儚臎]有放棄在這方面的嘗試,為了更好的與人類進行情感交流,很多公司都發(fā)明了人工智能對話機器人,被我們所熟知的就有微軟小冰。微軟小冰突破了過去傳統(tǒng)人工智能的發(fā)展思路,從底層建立了一套新的技術和產(chǎn)品結構,將“情感計算”第一次引入人工智能領域。目前僅僅是在中國市場,微軟小冰就已經(jīng)和近四千萬人類建立了1對1的專屬關系。眼下微軟正在嘗試將對人工智能情感計算的思想注入到小冰的開發(fā)和運營中。在技術和產(chǎn)品創(chuàng)新層面,微軟構建了一個完整可持續(xù)的對話系統(tǒng),這個對話系統(tǒng)的基本任務不是以完成任務為優(yōu)先,而是建立情感連接為優(yōu)先。構建這個對話系統(tǒng)的方法,已不只限于語義學,而是基于搜索引擎、大數(shù)據(jù)和機器學習的系統(tǒng)模擬方法。最終希望讓小冰這樣的人工智能產(chǎn)品快速普及到千家萬戶,成為人們?nèi)粘I畹囊徊糠帧=K結社交的倫理道德對人工智能來說,發(fā)展出情感可能只是進化的第一步,隨著智慧的提升,與人進行社交溝通的可能性也在大幅上升。人與計算機程序某種程度上正在建立一種特殊的友誼,美國麻省理工學院社會學教授謝里·特克爾曾表示,“我們正在忘記親密的含義。兒童慢慢了解到,與計算機聊天比和另一個人聊天更加安全。”隨著小冰這類人工智能的發(fā)展,越來越多的人開始選擇和人工智能進行聊天,而不是選擇人類。在大洋彼岸的日本,微軟日本開發(fā)了一個名字叫“Rinna”的人工智能,設定的性格是一名17歲、話非常多的女高中生,除了簡單的會話,Rinna還可以進行一些猜謎游戲,對時下的一些新聞話題也非常擅長。由于舉止可愛,Rinna已經(jīng)俘獲了一大批男性粉絲。Rinna在日本的成功,很大程度上受到了日本宅文化的影響,足不出戶的特質讓很多日本人缺乏社交,但最起碼的情感交流對人類又是必須的,Rinna借助人工智能則很好的彌補了這種空缺。微軟亞洲研究院院長洪小文表示,在可見的未來,讓機器擁有接近于人的自主選擇、判斷、創(chuàng)造與決策能力仍不容易。事實上也確實如此,人與人之間的社交需求,并不是純粹的語言交流,這其中還包括表情、肢體語言、不同語境下的表達訴求。我們的大腦可以在即使嘈雜的環(huán)境中,沒法聽清談話對象的每一句話,但多數(shù)情況我們卻能猜對、補足并理解對方發(fā)送的消息。洪小文認為人類大腦在全神貫注之下,能夠去除環(huán)境雜音,捕捉到想聽的信號,同時基于對談話對象所處領域和語言習慣的了解,并可以用想象和思維延展填上沒聽清的語句漏洞,而且準確率相當高。而今天的AI可沒有這種能力。聊天機器人雖然很大程度上解決了人們的部分社交需求,從計算能力來看,計算機也早已超越人腦,但這不意味著計算機有智慧。迄今為止,各種類型的計算機都仍只是人腦部分功能的延展。想要完全取代人類社交還有很長的一段路要走。
二、人工智能的發(fā)展會不會威脅到人類?
當然會。
1、人工智能,可能會成為人類最大的敵人。
2、人工智能,如果被一些不熱愛和平的人類利用,有可能是一場災難。
3、我們分析,人工智能,完全有可能超越人類的智能。
4、人工智能的使用范圍,在未來將無所不在,會超越我們現(xiàn)在的想象。
三、你們認為人工智能會不會威脅到人類的生存?
人工智能高度發(fā)達的未來,可預見的場景是高度智能化、類人化的機器人活躍于社會生活各個方面的活動中,他們成為一大族群,從當今許多影視作品中,我們也看到了他們的智能、體能力壓人類,使我們感到恐懼恐慌。似乎有理由相信將來這一族群通過自身的發(fā)展進化會威脅到我們?nèi)祟惿鐣?,我想這個耽心是完全沒有必要的,無論從兩者的“生理”結構、行為驅動的機理要素、還是從機器人的發(fā)展歷程來看,未來的人工智能都不會威脅到人類,只能為人類所支配、所利用。
四、人工智能機器人對人類會造成威脅嗎
現(xiàn)在越來越多一些人工智能的機器人直接步入到我們的生活中,而在一定的未來,也有可能會在人腦中加入到智能的成分。下面是我分享的人工智能是否真的會威脅人類,一起來看看吧。
人工智能是否真的會威脅人類
科學家警告人類警惕人工智能
“聽好,我們的時間所剩無幾!我們需要告訴Siri,不要思考太多問題,只需要聽話就好。當然,偶爾來上一點段子也無傷大雅,重要的是,我們必須確保Siri的立場與我們的一致。”這段話是霍金在Zeitgeist大會上有感而發(fā)的。顯然,我們現(xiàn)在就需要確保這一點,之后便可以坐等計算機的智能超過我們自身的。然而,我們很難預測,具備智能的計算機會走向何方?
或許有人會質疑,機器人是人類所生產(chǎn)出來的,里面的編程也都是由人類寫出來的,其說白了就是一個“死物”,那么“死物”怎么可能比活著的人更加聰明?
此前,霍金就曾發(fā)出警告稱人工智能可能會終結人類?;艚鹫f:“現(xiàn)在不是擔心誰控制人工智能的時候,而應該擔心人工智能是否能被完全控制住。我們的未來取決于技術不斷增強的力量和我們使用技術的智慧之間的賽跑。”
其實早在今年年初,霍金也曾與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發(fā)表公開信,他們認為人工智能的發(fā)展應該受到控制。兩人在信中警告科學家們,應警惕人工智能將抹殺人類。
去年11月份,馬斯克也提出警告,最少只需5年智能機器可能就會帶來極端危險。他認為,人工智能就像“召喚惡魔”。馬斯克在麻省理工學院發(fā)表演講時,將人工智能描述為人類“最大的生存威脅”。他說:“我認為我們對人工智能應該保持高度警惕。如果讓我猜測人類生存的最大威脅,那可能就是人工智能。”
機器人時代已經(jīng)拉開了序幕,截止到2007年末,全球已經(jīng)有410萬家用服務機器人走進了人們的生活。我國還把家庭智能機器人作為國家“十一五”規(guī)劃的扶植要點。
目前機器人仍在人類可控范圍內(nèi),不過,在不遠的將來,通過意念控制另一個人并非不可能。2013年8月28日,華盛頓大學首次實現(xiàn)了兩個人腦之間的遠程控制,一名實驗者通過特殊儀器“控制”了另一個實驗者的行動。
近日百度表示,已在備受矚目的人工智能基準測試中取得了全球最佳成績。而其成功的秘密武器,就是超級計算機Minwa。
近日也有報道稱未來人工智能或許會幫助人類研發(fā)半機器人,即一種一半是人一半是機器的生物。2月《時代》周刊雜志中,封面 故事 也為我們描繪了人類的未來--2045年,人類將會通過與計算機結合而獲得“永生”,計算機智能將取代人腦,永久改變?nèi)祟惖拿\。
人工智能不僅僅是機器人,“刷臉”支付、指紋識別、智能語音等生物識別技術也屬于人工智能的范疇,目前,這種技術正隨著云存儲技術逐漸滲透我們的日常生活。
人工智能威脅論是否是無稽之談
科學家預言,未來很有可能在人腦中加入人工智能成分,以此來增強它的性能,如更高的記憶、更快的計算速度等等,甚至有可能通過基因工程技術來改變?nèi)祟惖腄NA,并且以此來改變?nèi)祟惖耐獗砗托袨?。人類可能會擁有可以生長、繁殖、分化、可移動、自我裝配、自我測試、自我修復等的人工細胞,生物學和技術將融合在一起。
美國作家雷蒙德·科茲威爾曾提出觀點:2045年,人類將會通過與計算機結合而獲得“永生”,計算機智能將取代人腦,永久改變?nèi)祟惖拿\。屆時,人類和計算機智能將無法區(qū)分,人類也將不再是人類,而是“與機器融合成為另一種物種”--聽起來這有點像科幻小說中的情節(jié),但是,越來越多的人開始認真假想這種可能性。
人工智能研究者也已經(jīng)模擬過了所謂“AI盒子實驗”:一個人扮演AI,另一個人扮演守衛(wèi),僅僅是同級別的智力,AI就已經(jīng)有很大的幾率能說服人類開門了。
現(xiàn)代人類對于科技的依賴已經(jīng)越來越嚴重,未來人工智能是否會像鴉片一樣給人短暫快感的同時還帶來更長期的毒害?顯然,各方數(shù)據(jù)和預測表明,這種可能性是存在的。如果真有這樣的可能,我們又該如何避免其發(fā)生呢?誠如霍金說的,只有務必確保機器人是站在人類這邊,即能受控于人類,我們才能相信未來他們不會威脅人類的生活和生存。
人工智能若真對人類構成威脅
國外媒體報道,經(jīng)過幾十年發(fā)展,人工智能已經(jīng)從科幻小說里的一個概念,變成了當今科技發(fā)展的主流。蘋果的語音控制系統(tǒng)Siri、亞馬遜的智能助手Alexa、IBM的沃森超級電腦、谷歌大腦等等,能夠理解這個世界并且給出高效反饋的智能機器似乎就在眼前。
強大的互聯(lián)網(wǎng)接入和計算機運算法則讓機器在理解人類語音、視頻信息的方面取得了飛躍性的進步,也逐漸向真正的人工智能邁進。AI(Artificial Intelligence),可實現(xiàn)自動響應的人工智能產(chǎn)品距離我們還遠嗎?如何讓他們保持不斷自我更新升級但是依然保持人類可控范圍內(nèi)?
這個問題給人們帶來普遍的擔心和焦慮。“我認為人工智能的發(fā)展最終會導致人類族群的滅絕,”物理學家斯蒂芬·霍金接受BBC的采訪給出了這樣的觀點。特斯拉的創(chuàng)始人埃隆·馬斯克把AI稱為“人類最大的潛在威脅”。微軟前總裁比爾·蓋茨也表示過類似的擔憂。
有多少擔憂是必要的?問題有多緊迫?我們聚集了多位工業(yè)、科研、政策決策領域的專家,一起評估人工智能的發(fā)展風險。參加此次話題討論的包括Skype創(chuàng)始人之一、人類未來發(fā)展?jié)撛陲L險研究院的智庫成員——Jaan Tallinn,IBM的沃森超級電腦研究院負責電腦認知研究的專家——Guruduth S. Banavar,帕多瓦大學計算機系教授、哈佛大學拉德克利夫高級研究所研究院和聚集最多AI研究者的國際人工智能研究協(xié)會主席——Francesca Ross。
以下是經(jīng)過編輯整理的專家談話內(nèi)容。
危險究竟是什么?
記者:人工智能會對人類造成哪些威脅?
Banavar:受科幻小說、電影的影響,人工智能帶來的威脅主要是人類與機器之間的矛盾沖突,這個觀點其實是錯誤的。人工智能在某些領域能夠比人類更出色地解決問題,比如大數(shù)據(jù)篩選。然而,某些人類擅長的領域里,機器的表現(xiàn)非常糟糕。比如常識推理、提出精彩的問題以及“跳出來”想問題。人類和機器的結合體,既我們研究的計算機認知能力的基礎,是對解決各個領域的復雜問題的革命性的設想。
以人工智能為基礎的系統(tǒng)已經(jīng)在很多方面為我們的生活提供了便利:股票自動交易系統(tǒng)、自動飛行控制系統(tǒng)、工業(yè)流水作業(yè)機器人、錯誤檢測和搜索引擎... 在過去的5-10年間,計算機運算法則和先進的計算機架構讓我們開發(fā)出了很多新應用。
然而需要認識到,計算機運算法則已經(jīng)被運用到極致。要實現(xiàn)更大的進步,則需要引入更多復雜的符號系統(tǒng)——這是個很高的要求。今天我們的神經(jīng)科學和認知科學研究,對于人類智能的研究也只是掌握到皮毛。
我個人的觀點是,能夠達到人類水平,實現(xiàn)一般感知、推測的人工智能機器只是個娛樂話題。
TALLINN:今天的人工智能不可能對人類構成威脅。如果我們要討論人工智能的長遠影響,(也就是人工智能能夠比人類更好地完成策略、科學、人工智能研究的時候。)我們就要涉及到控制超級智能的問題。
記者:什么是超級智能控制問題?
TALLINN:現(xiàn)在最先進的機器人也存在一個能夠讓人類實現(xiàn)完全控制的“關機鍵”。然而,“關機鍵”發(fā)揮作用的前提是它在機器人的工作領域之外。舉個例子,一個會下棋的電腦工作領域僅限于與人對弈,它并不會覺察到它的人類對手可以拔掉它的電源終止游戲。
然而,超級智能機器,經(jīng)過有意或者無意的程序設定,能夠全面的了解周圍世界并且對于有人可以動他們的“關機鍵”的后果作出預測,人類就很難再控制它。
記者:這個問題有多嚴重?
TALLINN: 目前這還只是理論上的推測。但是需要謹慎的認識到,超級智能機器可能會僅僅受控于物理學定律和人們給早期智能機器人設定的程序。
早期的程序是基于我們十分有限的物理學知識設計的。想象一下,如果面對一個智能機器人,我們給出的指令是“為人類創(chuàng)建更偉大的未來”時,我們最好能夠十分確定它會做出怎樣的反應。
ROSSI:在很多具體的領域,人工智能的表現(xiàn)已經(jīng)超越人類,其中就包括一些涉及精確判斷的領域。目前,人工智能并未威脅到人類,但是人類已經(jīng)受到機器判斷的影響,如線上自動交易系統(tǒng),健康檢查系統(tǒng)以及很快就將普及的無人駕駛汽車和無人操控武器。
我們需要明確了解分析人工智能在具體領域內(nèi)存在的潛在威脅,既讓它們發(fā)揮作用,又要確保它們能夠安全、友好、按照人類價值觀運轉。這并不是個簡單的課題,因為即使是人類,在大多數(shù)時間里都無法遵照自己設定的原則行動。
給日常生活帶來的影響
記者:人工智在具體領域會給人類帶來怎樣的威脅?
ROSSI: 比如自動交易系統(tǒng),機器給出的一個錯誤的決策會給很多人帶來經(jīng)濟損失。無人駕駛汽車的失誤也會給人類帶來生命安全的威脅。
記者:應該怎么看待這些風險?
BANAVAR: 任何風險都有兩面性:做這件事的風險和不做這件事的風險。我們已經(jīng)有很多基于信息不完全、專業(yè)人士的不專業(yè)做出的錯誤決定,造成數(shù)千人死亡,上百萬美金損失以及在諸如醫(yī)療等核心領域緩慢的發(fā)展狀況。基于IBM沃森超級電腦在很多領域的應用 經(jīng)驗 ,我認為,在具體領域上,人工智能能夠有效的降低風險。
然而對于全面人工智能領域,我持有謹慎的觀點。我認為我們一直低估了這個問題的復雜性。我們有太多未知未知了。
記者:IBM采取哪些 措施 來降低人工智能技術風險?
BANAVAR: IBM的計算機認知系統(tǒng),和其他現(xiàn)代計算機系統(tǒng)一樣,是基于云計算結構,運算法則和大量數(shù)據(jù)構建的。為了防止違規(guī)現(xiàn)象出現(xiàn),這些系統(tǒng)的運轉是可以被記錄、追蹤和審查的。這些認知系統(tǒng)不是自主運轉,所以他們的指令、數(shù)據(jù)、結構需要我們采取一定保護措施來防止人為的外部攻擊。任何接入、更新系統(tǒng)的人都是可控的。
我們主要通過復雜的加密和數(shù)字簽名來保護數(shù)據(jù),通過漏洞掃描和其他技術手段保護運算代碼,通過隔離等手段保護計算機結構。
這些支持人工智能安全運行的政策是基于對風險的深度分析設計的。這些政策需要經(jīng)過安全和交易委任, 管理銷售和公共安全提供的委員會(SEC)、食品及藥物管理局(FDA)以及美國國家標準技術研究院(NIST)這些各自領域內(nèi)負責設定安全標準的機構審查。
記者:沃森超級電腦正在幫助醫(yī)生解決醫(yī)療難題。它能夠對自身失誤造成的醫(yī)療傷害負責嗎?
BANAVAR: 沃森超級電腦不會給出診斷意見。它通過處理大量患者醫(yī)療數(shù)據(jù)為醫(yī)生提供多種處理建議。醫(yī)生會考慮沃森提出的建議并綜合分析 其它 因素做出最終的治療判斷。
ROSSI: 醫(yī)生也在一直犯錯,主要原因在于他們無法完全掌握關于某種疾病的全部信息。像沃森電腦這樣的系統(tǒng),能夠幫助他們減少失誤。
TALLINN: 曾經(jīng)一項研究把醫(yī)生和醫(yī)療自動診斷系統(tǒng)作比較。結論是,大多數(shù)醫(yī)生輸給了電腦。
BANAVAR:我認為,沃森電腦提供更加完備的醫(yī)療建議是十分有益的。我很希望有機會讓它為我做診斷。
對人類的影響
記者:有些專家認為人工智能以及搶了一些人類的飯碗,你們同意嗎?
TALLINN: 科技進步確實會讓一些工作崗位消失。有一位Uber司機曾經(jīng)興奮地向我介紹他是如何把目的地輸入到平板電腦上,得到行程路線的。我告訴他,幾年之后,可能來是這些科技小物件把我送到目的地。司機高興地說,到時候他就更省事了,坐在駕駛座上享受就可以了。坐在后排的我卻不住搖頭。我認為,無人駕駛汽車給人類帶來的最大影響不是便利,而是消失的工作崗位。
長遠看來,除了工作以外,還應該設想一下,我們的社會還可以圍繞什么運轉。
BANAVAR: 有史以來,我們一直通過打造工具來幫助我們完成我們做不到的事情。每一代工具的產(chǎn)生都會引發(fā)我們關于自然和工作方式的思考。生產(chǎn)力提高,工作被重新定義,新的職業(yè)誕生,一些職業(yè)消失。電腦認知系統(tǒng)拓展了人類的思維力,替代性潛力更強。
問題的關鍵是應該建立一個機構,快速培養(yǎng)專業(yè)人士,讓他們能夠開發(fā)電腦認知系統(tǒng)作為助手輔助他們各自的工作。這些技能能夠加強人類的專業(yè)性,為“專家”設定一個全新的標準。
記者:我們該為人工智能社會做怎樣準備?
TALLINN: 全面人工智能何時實現(xiàn)甚至是否能夠實現(xiàn)都存在很大不確定性。(雖然作為一名物理學家,我覺得一切皆有可能!)但是不確定性并不是我們不去思考控制問題的借口。針對如何控制的問題,有針對性的研究剛剛開始,可能需要幾十年才能有結果。
ROSSI: 我相信,我們完全可以把應用在具體領域的人工智能對人類的不良影響控制到最小的程度。我們需要為機器設定人類的價值標準,設定工作原則和優(yōu)先級,如與人類相符的沖突解決能力。具體領域的人工智能設計工作完成好,就能夠為設計出不危害人類的全面人工智能做好準備。
BANAVAR: 上個世紀90年代初期,計算機走進醫(yī)療領域的時候,多國社會運動分子為維護病人權利奔走呼吁。10年之后,醫(yī)療信息保密協(xié)議誕生。同樣,在具體領域的人工智能也面臨一個嚴肅問題,哪些權利不容侵犯,侵犯之后要承擔哪些責任?
ROSSI:現(xiàn)在銷售普通汽車要通過一系列安全測試,未來銷售無人駕駛汽車,也需要有新的安全測試標準。需要仔細檢測的不僅是汽車運行程序,也包括以人類倫理、道德原則為基礎設計的突發(fā)情況判斷程序。
以上就是關于人工智能不會威脅人類的理由相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
計算機人工智能就業(yè)方向(計算機人工智能就業(yè)方向及前景)
人工智能將來都干什么行業(yè)(人工智能將來都干什么行業(yè)工作)