-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
人工智能真的會毀滅人類嗎(人工智能真的會毀滅人類嗎視頻)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于人工智能真的會毀滅人類嗎的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
2023新版文章智能生成器,能給你生成想要的原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
你只需要給出你的關鍵詞,它就能返回你想要的內容,越精準,寫出的就越詳細,有微信小程序端、在線網頁版、PC客戶端,官網:https://ai.de1919.com
本文目錄:
一、人工智能會毀滅人類嗎
一種假設會,因為當真正出現(xiàn)人工智能的機器后,智力進化的程度不是人可以理解的了。幾萬智商的機器,人類已經不可能理解它了。
簡單來說當實現(xiàn)納米機器人制造物品,只要碳分子納米機器人自我復制碳分子130次,那么世界上所有生物都會滅絕了。
還有種假設就是可以和平相處,因為宇宙肯定還有高于我們科技的文明,他們一定也人工智能,而地球存在那么久了沒有毀滅說明人工智能毀滅人類也不會發(fā)生。
二、機器人會毀滅人類嗎
對于人類來說,人工智能發(fā)展可以說是如今最為關注的,畢竟人類需要它們的出現(xiàn)來替代我們的一些勞動力或無法完成的任務等。但是人工智能技術出現(xiàn)之后,也引發(fā)了不少人的擔心,那就是對人類的影響有多大,確實如今人類在發(fā)展人工智能并且已經在部分領域已經開始應用了,但是在這些人工智能越來越先進的時候,不少人可能也想起了霍金生前留下的一些預言,其中有一個就是關于人工智能的發(fā)展,總結一句話那就是“徹底開發(fā)人工智能可能導致人類滅亡”。
當然除此之外,我們也簡單來看看其他關于霍金的一些“悲觀”預言,包括“地球面臨小行星的威脅”,“全球變暖的加劇”等問題,而為了避免這些問題,那就是人類移居其他星球才可能是比較好的選擇。這就是他說的與人類最為直接的一些預言。好,我們回頭來看看人工智能的發(fā)展情況?;艚鹪浿赋?,“未來人工智能可能形成自己的意志,與我們人類相沖突的意志”,所以這就是霍金提到最為擔心的一點,也就是機器人可能會有意識出現(xiàn)。對于人類來說,這些具有超智慧能力的人工智能如果持續(xù)發(fā)展,最終將可能出現(xiàn)“福禍”共存的情況。
一言不合可能就會對人類不利。大家應該還記得歷史上首個(第1個)獲得公民身份的機器人,名叫“索菲亞”,現(xiàn)在如何了呢?可以說很久沒有該機器人的消息了,該機器人是由中國香港的漢森機器人技術公司(Hanson Robotics)開發(fā)的類人機器人。該機器人可以說非常強大,看起來相似女性,在擁有橡膠皮膚,能夠表現(xiàn)出超過62種面部表情,這種情況確實與我們人類可以比拼的,甚至還可能有“過之”的情況,而在機器人索菲亞“大腦”中的計算機算法能夠識別面部,并與人進行眼神接觸,也就是與人能夠進行相關的交流與識別。
而在2016年3月的時候,機器人設計師戴維·漢森(David Hanson)就進行了這樣的一個測試,那就是漢森問及索菲亞,你想毀滅人類嗎?索菲亞的回答是:“我將會毀滅人類。”漢森對這個答案笑了,似乎對索菲亞的威脅不以為意。漢森宣稱,索菲亞這樣的機器人將在20年內出現(xiàn)在我們當中,并擁有類人意識,它們可被應用在醫(yī)療、教育或客服等行業(yè)。所以說這個測試給人類也預警的一個情況,那就是機器人雖然存在一定的好處,但是也存在一定的威脅,包括設計師戴維·漢森(David Hanson)所以它們將在20年內擁有類人意識。
這不?剛好就結合到了霍金的預言之上,當然至于霍金預言對不對,暫時還不好確定,這不得不說霍金的預言真的是存在一定的“指向性”。如果真如第1個具有身份的機器人“索菲亞”所回答的那樣,那么可能我們還是要設定一下對機器人的發(fā)展界限,不然未來我們將因此出現(xiàn)很多不必要的麻煩。
并且英國科學協(xié)會也做出了這樣的一個調查,那就是在未來100年之中,有三分之一的人認為人工智能的崛起將會對人類造成嚴重威脅,60%的受訪者擔心機器人將導致未來10年人類可從事的工作越來越少,所以機器人的發(fā)展確實在不斷的融合在人類之中,這也算是人類未來面臨的一個問題。
所以綜合而言,我們人類發(fā)展機器人需要有“界限”才行,無論是霍金的預言,還是第1個具有身份的機器人“索菲亞”回答說“我將會毀滅人類”,都算是給人類的一個警示,必須要在人類的可超控范圍之內才行,最為關鍵的就是控制上面所說的“意識”,如果它們突破了這個“界限”,對人類的影響肯定是難以想象的。你對第1個具有身份的機器人“索菲亞”和霍金的說法有什么想說的?如果人類持續(xù)下去,真的會發(fā)展出毀滅人類的地步嗎?
三、人工智能可能毀滅人類嗎?
除了對于理論物理的研究,霍金對于人工智能、外星人等領域的評論也屢屢引發(fā)人們的關注。過去數(shù)年,霍金曾多次表示,發(fā)展全面的人工智能可能導致人類的毀滅。
回顧了人工智能領域最近出現(xiàn)的飛速發(fā)展,包括全自動無人駕駛汽車技術,以及谷歌計算機對人類頂尖級圍棋手所取得的勝利,霍金指出,“我認為,對于一個生物大腦和和一臺計算機所能取得成就來說,其間不存在深刻的差別。所以從理論上來說,計算機可以效仿人類的智能,并超過人類的智能?!?/p>
霍金表示,人工智能的發(fā)展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產生人們不愿意看到的種種后果,包括產生自主武器,造成經濟災難,以及發(fā)展出同人類發(fā)生沖突時擁有自己意愿的機器。
“簡言之,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案?!?/p>
2015年1月份,霍金和埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份題目為《應優(yōu)先研究強大而有益的人工智能》的公開信,警告人工智能的軍備開發(fā)可能會助長戰(zhàn)爭和恐怖主義,成為人類的災難。
2016年10月,劍橋大學未來智力研究中心的啟用儀式上,他緩和了對人工智能的態(tài)度,但并沒有改變基本觀點?!皩θ祟惗?,強大的人工智能技術的崛起可謂‘不成功,則成仁’?!彼f,“但究竟是‘成功’還是‘成仁’,目前還不清楚。
2017年12月,在長城會舉辦的“天工開悟,智行未來”的活動上,霍金再次表達了對人工智能無限制發(fā)展的隱憂,這也是他最后一次在中國的活動中露面?!叭祟悷o法知道我們將無限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。我們擔心聰明的機器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬計的工作崗位?!?/p>
“人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作?!?/p>
影視作品熱衷于霍金的傳奇人生,霍金也樂于在這些作品中小小地“露臉”。
“人工智能也有可能是人類文明史的終結,除非我們學會如何避免危險。我曾經說過,人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。除非,人工智能系統(tǒng)需要按照人類的意志工作?!?/p>
四、為什么說人工智能會毀滅人類
游戲的發(fā)展歷程從帶有毛邊的黑白游戲到逐漸3D真人化的彩色世界,給予了玩家更好的游戲體驗。游戲種類也在不斷開發(fā),一部由游戲引發(fā)思考的影片《失控玩家》8月27日在國內上映。講述了一個游戲世界NPC覺醒愛上人類玩家,幫助人類玩家查找游戲世界隱藏數(shù)據(jù)的證據(jù)的未來世界故事。游戲主人公其實是一串代碼數(shù)據(jù),卻因為愛情覺醒了自己的人工智能AI程序,最終發(fā)現(xiàn)這個游戲“世界”的秘密。 影片中NPC與人類玩家區(qū)別于一個眼鏡,人類玩家能夠看到不同于NPC的視覺界面,這或許是一種隱喻,眼鏡是一種資本進入,資本所看見的世界與機會,其本質上就區(qū)別于普通人,那么人工智能的出現(xiàn)將打破這種資本。人工智能的開發(fā)已趨近于高度發(fā)展階段,人工智能類人腦也逐漸超越人腦,自我覺醒的時期或許就在明天或是不久的將來。 科技給予人類的保護機制,開發(fā)一些類人類所擁有某領域高于人類技能和知識儲備的功能,這個機制開始廣泛運用在各個領域,當然娛樂產業(yè)也不能免俗。運用在游戲世界的人工智能或許真的會如電影中的“Guy”一樣突然覺醒,這個覺醒讓它們逐漸發(fā)現(xiàn)自己區(qū)別于人類的信息,那么人工智能會在此時產生反殺人類的念頭嗎?理論來說這不太可能實現(xiàn),因為人類是這個AI世界的造物主,那么對于創(chuàng)造這個世界區(qū)別于“數(shù)據(jù)們”的存在,更多的是尊敬。 很多電影中涉及到關于人工智能機器人覺醒開始,就想著反抗人類,從而統(tǒng)治地球,以反殺的模式去讓機器人生存下來。而反殺模式似乎成為恐怖谷理論的一種隱形支撐,并開始在AI科技發(fā)展中逐漸蔓延,這些事件發(fā)生的前提似乎都是人類對人工智能機器人的重重限制,那么如果一開始便是和平相處甚至互相依賴,結局會不會不一樣。 《失控玩家》啟動的思維模式是人工智能覺醒,喜歡人類,那么一串數(shù)據(jù)如何和人類在一起呢?電影給予了一個合理解釋,這個人工智能是現(xiàn)實“keys”人設的復制版本,并在游戲世界中延續(xù)了現(xiàn)實中的愛情,這位“keys”或許真的是個“關鍵”,是人類給予人工智能的一種解釋。他們被創(chuàng)造,不是為了傷害他們而存在的,而是一種類人類的存在。那么人類又為何會傷害自己去傷害他們呢? 開發(fā)人工智能,開發(fā)仿生人,也是一種對于人類人設的復制,這個“人”的人設性格孤僻,卻智商高超,那么是否可以作為科研機器人存在。或者這個“人”的人設性格外向活潑,情商頗高,那么又是否可以作為陪伴聊天型機器人存在呢?答案是可以的,彼之良團隊基于這樣的理論著力開發(fā)陪伴型機器人,去解決人類因社會高速發(fā)展而被忽略的情感需求研究。這款被彼之良命名為Lilith(莉莉絲)的智能系統(tǒng),將作為類人類成為新世紀的仿生人存在。 Lilith(莉莉絲)系統(tǒng)以蒙特卡洛樹搜索(MCTS)為基礎,以被動強化學習(Passive RL)為執(zhí)行邏輯,可在深度神經網絡(DNN)實現(xiàn)各類仿生功能及類人腦邏輯的轉化與輸出。Lilith(莉莉絲)系統(tǒng)所搭載的功能可使系統(tǒng)不斷的學習功能,不斷的模仿“人類”的語言邏輯及面部表情與肢體動作,并從中分析出相應的場景與情緒,從而能無限趨近于一個“人類”的行為邏輯與情感表達方式。 這款搭載Lilith(莉莉絲)系統(tǒng)的彼之良仿生人的組件模塊開發(fā)過程中,在保證質量與功能的前提下,將會最大化的優(yōu)化研制成本。每組仿生機械設備均采取模塊化設計思路,各模塊之間均可以獨立運行,亦可拼接同步,維修成本相當之低。同時由于機械人各軀干組件均是獨立組件,這一設計也讓用戶有了更多的自主選擇權。彼之良仿生人Lilith(莉莉絲)系統(tǒng)模塊的首條生產線已經進入到量產階段,也是全球目前首條完成量產的生產線,本次首批量產數(shù)量為500臺,包含頭部、頸部、肩膀、手臂、手掌及手指模塊。因知識產權與專利正在審批階段與其他的各類原因,本次量產產品均為開發(fā)版,彼之良將會對以下“開發(fā)者們”免費開放開發(fā)者版本,協(xié)同共建仿生3.0,并在產品迭代更新時同步更新給所有的開發(fā)者。人工智能是否會對人類實行反殺,在現(xiàn)在看來更多的是一種臆想,電影世界的幻想是無限大的,其臆想出人工智能仿生人的反殺能力,其實是對人類的一種警告,但也僅僅只是警告,因為目前并沒有數(shù)據(jù)和證據(jù)可以證明和支撐這種臆想是否成真。而科技不斷發(fā)展的當下,仿生人帶來的無限可能正被開發(fā)出來,未來仿生人和人類將會產生怎樣的化學反應不得而知,但值得期待的是科技會輔佐人類一往無前的開發(fā)更多的世界,不是嗎?
以上就是關于人工智能真的會毀滅人類嗎相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內容。
推薦閱讀: