亚洲欧美日韩国产一区二区精品_亚洲国产精品一区二区动图_级婬片A片手机免费播放_亚洲国产成人Av毛片大全,男女爱爱好爽好疼视频免费,中文日韩AV在线,无码视频免费,欧美在线观看成人高清视频,在线播放免费人成毛片,成 人 网 站 在 线 视 频A片 ,亚洲AV成人精品一区二区三区

機械社區(qū)

 找回密碼
 注冊會員

QQ登錄

只需一步,快速開始

搜索
查看: 3451|回復: 3
打印 上一主題 下一主題

如何看待霍金對人工智能的警告

[復制鏈接]
跳轉(zhuǎn)到指定樓層
1#
發(fā)表于 2017-6-5 14:11:10 | 只看該作者 回帖獎勵 |倒序瀏覽 |閱讀模式
      今年3月8日,,著名物理學家史蒂芬·霍金向英國《獨立報》表示,,人類必須建立有效機制盡早識別威脅所在,,防止新科技(人工智能)對人類帶來的威脅進一步上升,�,;艚鹁�,,未來人工智能可能會以生化戰(zhàn)爭或核子戰(zhàn)爭的方式摧毀人類,。其實,,早在2015年9月,霍金就發(fā)出過類似的警告:聰明能干的人工智能會讓人類滅亡,�,;艚鸨硎荆阂粋超級聰明的人工智能可以非常好地實現(xiàn)它的目標,如果這些目標沒有與我們?nèi)祟愐恢�,,我們�(nèi)祟惥吐闊┝恕?/font>

       我們?nèi)绾蝸韺Υ艚鸬木婺�,?首先,霍金本人也是人工智能技術(shù)的支持者,,霍金認為,,如今人工智能似乎已經(jīng)滲透到各個領(lǐng)域。人工智能甚至可幫助根除長期存在的社會挑戰(zhàn),,比如疾病和貧困等

       人工智能技術(shù)是當今新技術(shù)革命的領(lǐng)頭羊,。事實上,人工智能技術(shù)的發(fā)展已歷經(jīng)三次浪潮,。第一次浪潮以“手工知識”為特征,,典型范例如智能手機應用程序等,。第二次浪潮以“統(tǒng)計學習”為特征,典型范例如人工神經(jīng)網(wǎng)絡系統(tǒng),,并在無人駕駛汽車等領(lǐng)域取得進展,。雖然這些人工智能技術(shù),對明確的問題有較強的推理和判斷能力,,但不具備學習能力,。第三次浪潮則以“適應環(huán)境”為特征,人工智能能夠理解環(huán)境并發(fā)現(xiàn)邏輯規(guī)則,,從而進行自我訓練并建立自身的決策流程,。今年年初,谷歌AlphaGO的升級版Master以 60∶0的戰(zhàn)績,,擊潰當世所有圍棋頂級高手,;就在5月25日,AlphaGO又接連兩局擊敗中國圍棋職業(yè)九段棋手柯潔,;我以為,,這些都是人工智能第三次浪潮的標志。

       其次,,人工智能技術(shù)也是一把雙刃劍,。一方面,,借助人工智能技術(shù)實現(xiàn)自動化,,將極大提高生產(chǎn)率,節(jié)省勞動成本,;通過優(yōu)化行業(yè)現(xiàn)有產(chǎn)品和服務,,開拓更廣闊的市場空間。正由于人工智能對社會經(jīng)濟無可替代的重要推動作用,,在我國兩會上已將人工智能寫進了政府工作報告,。

       另一方面,人工智能技術(shù)對社會也帶來了近期和遠期的風險,。在不遠的將來,,那些重復、耗時,、乏味的工作,;在快速變化的復雜環(huán)境中進行的工作以及超出人類極限的工作,都有可能被人工智能系統(tǒng)所代替,,從而沖擊勞動力市場,。可以預測,,由于人工智能的發(fā)展,,多數(shù)人的智能將低于或接近人工智能的水平,,如果沒有政策的有效控制,財富就會集中到少數(shù)智能超過人工智能的人手中,,這將進一步擴大社會的貧富差別,,引發(fā)社會的撕裂。

       至于說到霍金警告的人工智能引發(fā)的人類生存風險,,即人工智能將來會從整體上超越人類智能,,目前對此在認識上還有分歧。許多自然科學家認為,,目前人工智能離上述水平還很遠很遠,,其危險遠不足慮;而某些社會科學家卻有擔憂,,認為隨著技術(shù)變革的深入,,人工智能所引發(fā)的鏈式反應,就會出現(xiàn)無法控制的局面,。上述認識的差異,,正好體現(xiàn)了人類對智能認識的多樣性。從這個角度看,,科學家全面認識人類智能,,并將其復現(xiàn),只是時間問題,。鑒于人工智能有可能超越人類智能,,以及由此產(chǎn)生十分嚴重的后果,再加上科學技術(shù)發(fā)展的內(nèi)在不確定性,,就充分說明了研究人工智能安全問題的必要性,。

       早在1950年出版的美國著名科幻小說家艾薩克·阿西莫夫撰寫的《我,機器人》小說中,,就提出了著名的“機器人三大定律”:第一定律,,機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀,;第二定律,,機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外,;第三定律,,機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存,。此后,,這“三大定律”不斷激發(fā)出對于人工智能安全性的新思考。由于人工智能最終必將會具備自主意識,,到那時人類與人工智能系統(tǒng)之間的關(guān)系,,必須服從普適,、可靠的準則。特別是在軍事領(lǐng)域要更加小心,,否則極有可能出現(xiàn)科幻電影中描述的人機大戰(zhàn)的場景,。

       因此,我們在發(fā)展人工智能系統(tǒng)的同時,,還要確保其在預先制定的相關(guān)準則下進行工作,,以防止其出現(xiàn)越規(guī)行為。

2#
發(fā)表于 2017-6-5 14:38:07 | 只看該作者
杞人憂天啊,。
3#
發(fā)表于 2017-6-5 16:47:39 | 只看該作者
不得不防啊,,若有第三次世界大戰(zhàn),那肯定是人工智能挑起來的
4#
發(fā)表于 2017-6-5 20:46:44 | 只看該作者
將來上戰(zhàn)場的也許不是人類,,而是機器人
您需要登錄后才可以回帖 登錄 | 注冊會員

本版積分規(guī)則

小黑屋|手機版|Archiver|機械社區(qū) ( 京ICP備10217105號-1,,京ICP證050210號,浙公網(wǎng)安備33038202004372號 )

GMT+8, 2025-2-9 19:13 , Processed in 0.062007 second(s), 17 queries , Gzip On.

Powered by Discuz! X3.4 Licensed

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表