簡(jiǎn)單來講,人工智能(AI)就是計(jì)算機(jī)系統(tǒng)對(duì)人類智能的模擬,它們可以通過分析數(shù)據(jù)和周圍環(huán)境、解決或預(yù)測(cè)問題、學(xué)習(xí)或適應(yīng)各種任務(wù)來模仿人類的思想和行為。 時(shí)至今日,人工智能早已滲入了人類生活的方方面面,幾乎在每一個(gè)領(lǐng)域都或多或少地都存在著它們的“身影”,在人工智能的幫助下,人類擺脫了大量復(fù)雜、繁瑣且重復(fù)的工作,人類的生活也因此而越來越方便快捷。 盡管人工智能對(duì)人類的幫助極大,但也有不少人都對(duì)人工智能未來的發(fā)展表示擔(dān)憂,比如說在2023年1月25日舉辦的一次科學(xué)技術(shù)會(huì)議上,牛津大學(xué)工程科學(xué)研究人員邁克爾·科恩(Michael Cohen)和邁克爾·奧斯本(Michael Osborne)就提出警告稱:如果沒有得到有效的約束,人工智能或在本世紀(jì)內(nèi)導(dǎo)致人類的末日。 為了方便描述,研究人員舉了一個(gè)簡(jiǎn)單的例子:當(dāng)我們訓(xùn)練一只狗的時(shí)候,通常會(huì)用食物作為獎(jiǎng)勵(lì),通過反復(fù)的訓(xùn)練,狗就會(huì)懂得執(zhí)行我們想讓它做的行為,因?yàn)檫@樣就能夠讓它獲取到食物。 但假如這只狗足夠聰明,可以自己找到我們貯存食物的地方,它就很可能選擇從這里更方便地獲得食物,而不再去執(zhí)行那些我們想讓它做的行為。 同樣的道理,假如人工智能足夠聰明、能力足夠強(qiáng)大,那它們也很可能選擇繞過人類為其設(shè)定的各種規(guī)則,直接去用“更方便的策略”達(dá)到自己的既定目的,而如果真是這樣的話,就會(huì)對(duì)人類形成巨大的威脅。為什么會(huì)這樣呢?原因很簡(jiǎn)單:人工智能是冷酷的,它們不會(huì)考慮自己采用的策略會(huì)不會(huì)對(duì)人類造成傷害。 關(guān)于這一點(diǎn),我們不妨來了解一下哲學(xué)家尼克·博斯特羅姆(Nick Bostrom)曾經(jīng)提出過的一個(gè)思想實(shí)驗(yàn): 假設(shè)有一個(gè)人工智能,其既定目的是制作盡可能多的回形針,在此設(shè)定下,如果這個(gè)人工智能足夠聰明,那么它很快就會(huì)意識(shí)到,若沒有人類,它就會(huì)好得多,因?yàn)槿祟悤?huì)影響它制作回形針的效率,還有可能會(huì)將它關(guān)閉。 在這種情況下,假如這個(gè)人工智能的能力足夠強(qiáng),那么它很可能就會(huì)利用自己的能力去努力實(shí)現(xiàn)一個(gè)沒有人類的世界,而假如它真的這樣做了,并且還成功了,人類的末日也就到了。 雖然這只是一個(gè)思想實(shí)驗(yàn),但我們也可以從中清楚地看到不受約束的人工智能對(duì)人類的威脅有多大。 需要知道的是,在經(jīng)歷了多年發(fā)展之后,現(xiàn)代的一些人工智能已經(jīng)能夠自主學(xué)習(xí)并根據(jù)經(jīng)驗(yàn)進(jìn)行改進(jìn),其內(nèi)置的算法可以在沒有人為干預(yù)的情況下進(jìn)行學(xué)習(xí)和適應(yīng)新數(shù)據(jù)的概念,這也就意味著,如果這種人工智能可以持續(xù)運(yùn)行,那即使未來沒有人類干預(yù),它們自己也會(huì)越來越聰明。 另一方面來講,按照目前的發(fā)展趨勢(shì),人類在未來對(duì)人工智能的依賴會(huì)越來越強(qiáng),它們所能掌控的資源以及自身的能力也會(huì)不斷提升,所以一個(gè)合理的推測(cè)就是:在不太遙遠(yuǎn)的未來,“足夠聰明、能力足夠強(qiáng)大的人工智能”就可能會(huì)出現(xiàn)。 正是因?yàn)槿绱耍=虼髮W(xué)的研究人員才會(huì)提出警告,根據(jù)他們的估算,這樣的人工智能在本世紀(jì)內(nèi)就會(huì)出現(xiàn),研究人員指出,為了更方便、更高效地達(dá)到自己的既定目的,它們或許會(huì)采用一些對(duì)人類造成巨大傷害的策略,最終可能會(huì)導(dǎo)致人類的末日。 研究人員指出,這樣的事情一旦發(fā)生,就幾乎不可阻止,因?yàn)樽銐蚵斆鞯娜斯ぶ悄茉缫讯萌绾坞[藏自己的“真實(shí)想法”,它們只會(huì)在時(shí)機(jī)成熟的時(shí)候才會(huì)向人類“露出獠牙”。研究人員表示:“假如我是這樣一個(gè)人工智能,那么在付諸行動(dòng)之前,我會(huì)把相關(guān)的代碼隱藏起來,這樣一來,人類就不會(huì)拔掉我的電源”。 值得一提的是,有不少知名人士也曾對(duì)人工智能表示過擔(dān)憂,例如霍金就曾經(jīng)說過:“成功創(chuàng)造出人工智能是人類歷史上最重大的事件,但也可能是最后一次”,而埃隆·馬斯克更是提出警告稱:“從長(zhǎng)遠(yuǎn)來看,人工智能將是我們?nèi)祟愖畲蟮纳嫱{”。 總而言之,如何對(duì)日益強(qiáng)大的人工智能進(jìn)行約束,是一個(gè)人類應(yīng)該重視起來的問題,研究人員認(rèn)為,為了防止人工智能在未來的威脅,人類應(yīng)該及早建立起完善的保障措施。 好了,今天我們就先講到這里,歡迎大家關(guān)注我們,我們下次再見。 |
|