日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

機器人會傷害人類嗎?

 木子4kfvyzepq8 2017-02-13

機器人“robot”一詞源自捷克語“robota”,意思是“強迫勞動”。1920年,捷克斯洛伐克作家薩佩克寫了一個名為《洛桑萬能機器人公司》的劇本,他把機器人的地位確定為只管埋頭干活、任由人類壓榨的奴隸,它們存在的價值只是服務(wù)于人類。它們沒有思維能力,不能思考,只是類似人的機器,很能干,以便使人擺脫勞作??梢哉frobot誕生之初就確定了它們可悲的奴隸命運。但是隨著人工智能的出現(xiàn),當(dāng)機器人有一天變得比人還要聰明時,它們還會永遠(yuǎn)服從人的指令嗎?

機器人的圣經(jīng)

為了避免機器人殘害人類,科幻巨匠阿西莫夫曾提出了機器人三定律--

第一定律:機器人不得傷害人類,或因不作為使人類受到傷害。

第二定律:除非違背第一定律,機器人必須服從人類的命令。

第三定律:除非違背第一及第二定律,機器人必須保護自己。

但后來,阿西莫夫加入了一條新定律--第零定律:即機器人不得傷害人類整體,或因不作為使人類整體受到傷害。

在阿西莫夫以前,還沒有人能夠提出這么具有歷史意義的機器人法則,可以說直到今天還沒有人能夠提出優(yōu)于阿西莫夫的定律,因此說它是機器人的圣經(jīng)一點也不為過。阿西莫夫本人也曾經(jīng)自豪地說過:“三定律是理性人類對待機器人(或者任何別的東西)的唯一方式。”

因此人們認(rèn)為,只要按照阿西莫夫的思想來設(shè)計的機器人一定是安全的,人們可以隨心所欲地控制它們的行為。那時候的機器是一個確定性的系統(tǒng),只需加載一條條指令,它們就按程序員所設(shè)想的那樣工作。但是今天,情況發(fā)生了變化。人工智能的設(shè)計發(fā)生了很大變化,科學(xué)家們意識到,那種馮·諾伊曼式的自上而下的控制式程序不太可能實現(xiàn)人工智能,現(xiàn)今最優(yōu)秀的人工智能都是基于遺傳算法,它模擬的是大腦的神經(jīng)網(wǎng)絡(luò)的工作方式。人們?yōu)檫@樣的技術(shù)付出的代價就是,人們再也不可能完全理解人工智能是如何工作的了。

三定律的缺陷

機器人三定律并不是完善的。這三條定律的缺陷、漏洞和模糊之處不可避免會導(dǎo)致一些奇怪的機器人行為。比方說,這三條定律連何為“人”、何為“機器人”都沒有良好定義,而且,如果機器人獲取的信息不完整,它們完全可以無意中打破定律;所以說機器人三定律概念不清。正是因為這種概念不清,才導(dǎo)致出現(xiàn)了各種各樣危險的機器人。此外,三定律自身就存在著嚴(yán)重的邏輯矛盾。

第一定律說,機器人不得傷害人類,或因不作為使人類受到傷害。假如兩人互相斗毆,機器人應(yīng)當(dāng)選擇幫誰呢?加入任一方都違反第一定律前半部分,不加入?yún)s又違反第一定律后半部分。

第二定律,除非違背第一定律,機器人必須服從人類的命令。于是主人說你幫我去搶銀行吧,搶銀行也是一種工作,不違反第一條,那么機器人一定是去搶銀行或者制作炸藥。那么這種違法的事情算不算違背第一定律?

第三定律,除非違背第一及第二定律,機器人必須保護自己。欺騙算不算是違背第一及第二定律?比如機器人給出虛假答案甚至制造虛幻生活的環(huán)境,算不算違背第一及第二定律?

第零定律,阿西莫夫只是偷換了概念,把第一條的個人換成了人類,但是人類之間是由不同的利益團體構(gòu)成的,如果兩個集團發(fā)生武裝沖突,其結(jié)果必定是任何一方都認(rèn)為自己是正義的、對方是邪惡的,雙方都研發(fā)自己的機器人并將其投入戰(zhàn)爭,然后開始做著傷害人類的事情。

如果機器人有意識,會忍受“三定律”嗎?

從三定律來看,如果機器人沒有自我意識,三定律就不存在、自我解體了。如果機器人可以有自我意識,機器人還能忍受三定律嗎?更何況,你要怎么阻止一個智力超群的機器人自己把定律改掉呢?

當(dāng)機器人有了自我意識,的確讓人感到恐懼。如科幻電影《復(fù)仇者聯(lián)盟2》中,一個由擁有自我意識的高度智能機器人帶來的“奧創(chuàng)時代”令超級英雄們繃緊了神經(jīng)。部分人堅信會像電影里一樣,一旦有一天機器人“開始思考”,很可能會淘汰它們認(rèn)為已經(jīng)落后的人類。

那么,位于科技前沿的領(lǐng)袖們對“機器人是否毀滅人類”怎么看?從他們的言論中我們或許能知曉一二。

著名物理學(xué)家霍金從進(jìn)化的角度解釋稱,機器人技術(shù)的發(fā)展速度要遠(yuǎn)超人類進(jìn)化速度,機器人將加速重新設(shè)計自己,繼而脫離甚至取代人類,因此“成功制造出人工智能機器人將可能成為我們歷史上最后一個里程碑”。

現(xiàn)實版“鋼鐵俠”、特斯拉CEO埃隆·馬斯克多次提出“機器人威脅論”,他認(rèn)為人工智能可能比核彈還危險。2015年年底他還預(yù)言,“機器人屠殺人類”將在5~10年內(nèi)來臨。

盡管馬斯克的大膽言論遭到不少反對,不過他還是得到了比爾·蓋茨的響應(yīng)。比爾·蓋茨承認(rèn)在剛開始時,人工智能機器會為我們做很多工作,但幾十年后其成為超級智能后,會強大到讓人類不得不關(guān)注,也就是說人類應(yīng)當(dāng)敬畏人工智能的崛起。

除了馬斯克、蓋茨,今年3月,蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克在接受采訪時表示,比人類思維速度更快的機器人能用更高效的方式管理公司,人類有淪為機器人“家庭寵物”的危險,他預(yù)言那一天可能發(fā)生在30年后。機器人三定律建立的基礎(chǔ)就有著本質(zhì)的錯誤,三定律把人想象成了奴隸主,而把機器人當(dāng)成了聽話的奴隸。這種基于有缺陷的倫理框架本身就有著內(nèi)在的對抗性,所以才不被研究者接受。我們之所以歧視機器人是因為機器人是由機器發(fā)展而來的,它的軀體是硅做的,不是血肉之軀,所以它們就必須遵從人類的需求,不管它們有多么強大的能力也沒用。雖然有不少專家公開表達(dá)對人工智能機器人的擔(dān)憂,但人工智能技術(shù)還是在一片爭議聲中快速地發(fā)展。

相關(guān)鏈接:

不服從命令的機器人已經(jīng)出現(xiàn)

為了引發(fā)人類對人工智能的深層討論,美國加州伯克利大學(xué)機器人專家里本發(fā)明出能自己決定是否“故意傷人”的機器人,顛覆以往機器人展示的可愛助人一面。里本根據(jù)阿西莫夫的科幻小說,將此機器人命名為“第一法則”。在故事中,人類給機器人專門制定了法則,其中第一條就是“機器人不能傷害人類,或者在人類遭遇傷害時不作為”。里本說,這個造價不超過200美元的機器人,能夠按照程序自己“決定”是否要刺破一個人的手指。里本坦言,機器人會失控是人們最大的擔(dān)憂,而自己制造機器人的用意就是為了證明能決定傷害人類的機器人已經(jīng)存在,希望借此引發(fā)對人工智能的深層討論。

【責(zé)任編輯】蒲暉

龍學(xué)鋒

    本站是提供個人知識管理的網(wǎng)絡(luò)存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購買等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多