來自hackaday 作者:Will Sweatman 參與:楊超,汪汪 Churchill先生經(jīng)常將第二次世界大戰(zhàn)比作「精靈戰(zhàn)爭」,無論是同盟國和軸心國都希望在電子信息中獲得優(yōu)勢,從而能夠贏得戰(zhàn)場上的主動權(quán)。許多技術(shù)也是在這段時間誕生的,其中之一便是破譯編碼消息。能夠完成這項使命的裝置成為了現(xiàn)代計算機(jī)的前身。1946年,美國軍方開發(fā)了電子數(shù)字積分計算機(jī)(ENIAC),ENIAC使用了超過17000個真空管,其計算能力要比之前的電子—機(jī)械計算機(jī)快幾個數(shù)量級。而真正讓科學(xué)家興奮的是它是可編程的。也正是這種可編程計算機(jī),激發(fā)了人工智能(AI)的概念。 隨著時間的推移,計算機(jī)變得越來越小,速度也越來越快。半導(dǎo)體晶體管的發(fā)明使得微處理器開始誕生,從而大大加速了電腦編程的發(fā)展。人工智能逐漸開始變成主流,專家們也開始紛紛宣稱,計算機(jī)智能將會很快超過我們?nèi)祟悺R恍┏绦蚶鏓LIZA和Blocks World讓公眾非常著迷,同時也開始讓人們感覺到,在未來當(dāng)電腦變得更加快速的時候,它們或許可以像人類一樣思考。 神經(jīng)網(wǎng)絡(luò) 20世紀(jì)80年代,當(dāng)人工智能日薄西山之時,很多神經(jīng)網(wǎng)絡(luò)的研究人員獲得很了更多急需的資助。神經(jīng)網(wǎng)絡(luò)誕生于20世紀(jì)60年代,但是卻受到了人工智能研究人員的壓制。由于資源匱乏,并沒有多少研究投入到神經(jīng)網(wǎng)絡(luò),直到人們發(fā)現(xiàn)人工智能并不像炒作的那么完美。和電腦(這是早期人工智能的基礎(chǔ))不同,神經(jīng)網(wǎng)絡(luò)并沒有處理器或者中心位置來儲存內(nèi)存。
神經(jīng)網(wǎng)絡(luò)和計算機(jī)的編程方式也不一樣。它們的連接方式使得它們有能力學(xué)習(xí)輸入的信息。通過這種方式,它們更像是哺乳動物的大腦。畢竟,人類的大腦看起來就像是很多神經(jīng)元相互連接而形成的具體模式。神經(jīng)網(wǎng)絡(luò)和大腦的這種相似性使得它們獲得了那些對基于計算機(jī)的人工智能失望的人們的注意。 在20世紀(jì)80年中期,一家名叫NETtalk的公司建立了一個神經(jīng)網(wǎng)絡(luò),它具有學(xué)習(xí)閱讀的能力(至少從表面上看是這樣)。它們可以通過學(xué)習(xí)字母的圖樣來講話。一段時間之后,它已經(jīng)學(xué)會了閱讀單詞。NETtalk被認(rèn)為是人類創(chuàng)造力的一次勝利,成為了世界各地的頭條新聞。但是從工程的角度出發(fā),該神經(jīng)網(wǎng)絡(luò)的工作其實一點都不復(fù)雜。事實上它并沒有理解任何東西。它只是將圖樣和聲音進(jìn)行匹配。然而,它確實是通過學(xué)習(xí)獲得的,而這對于以人工智能為基礎(chǔ)的電腦來說卻要困難很多。最終,神經(jīng)網(wǎng)絡(luò)遭遇了和人工智能一樣的命運——有很多的設(shè)想和興趣,但是當(dāng)它不能滿足人們的期望的時候,便逐漸退去。 新世紀(jì) 進(jìn)入21世紀(jì)前夕,我們看到了人工智能領(lǐng)域的些許變化。1997年,IBM的「深藍(lán)」計算機(jī)在一系列的國際象棋比賽中擊敗了Garry Kasparov,從而成為了頭條新聞。但是深藍(lán)并不是因為聰明而贏,它贏僅僅是因為它更快。深藍(lán)并不能理解象棋,就像計算器并不理解數(shù)學(xué)一樣。 現(xiàn)代社會中也有很多相同的方式來利用人工智能。谷歌使用神經(jīng)網(wǎng)絡(luò)和一種分層結(jié)構(gòu)相結(jié)合,獲得了很多有趣的發(fā)現(xiàn),其中包括一個名為Inceptionism的程序。神經(jīng)網(wǎng)絡(luò)非常有前途,但是它并沒有顯示出通往人工智能的清晰路徑。
IBM的Waston則有可能成為該領(lǐng)域的頂級玩家。我們可以認(rèn)為Waston非常聰明,但除此之外并無更多。通過快速搜索萬億字節(jié)的信息,Waston可以從中獲得想要的答案。但是它也不能理解其實際內(nèi)容。 人們可以說,過去的這些年創(chuàng)造人工智能的過程已經(jīng)影響了我們?nèi)绾味x它,甚至直到今天也是。雖然我們都同意「人工」的含義,但對「智能」卻有很多困惑。看看過去對于智能的定義或許可以讓我們明白我們是如何失敗的。 阿蘭·圖靈和中文屋 阿蘭·圖靈是現(xiàn)代計算機(jī)之父,他開發(fā)了一個簡單的測試,來驗證一臺電腦是否智能,即「圖靈測試」:如果電腦和人類交談的時候讓人類覺得他是在和另一個人類交談,那么我們就可以說電腦能模仿人類,從而可以說它擁有智能。前面提到的ELIZA程序在該測試中成功愚弄了很多人。圖靈的這種定義是以行為為基礎(chǔ)的,多年來一直被人們接受。直到1980年,當(dāng)John Searle提出了中文屋論證,這一切才開始改變。 讓我們想象一下,當(dāng)一個講英語的人被鎖在了一個房間里,房間中有一個桌子,桌子上面有一大本書。該書是用英語書寫的,同時也有關(guān)于如何操作漢語字符的指導(dǎo)。他并不知道它們的意思,但是他可以讀懂這些指導(dǎo)。然后,有人在門下放了一張紙,這張紙上是用漢語寫的一個故事和關(guān)于這個故事的問題。這個人并不理解這些單詞,但是可以使用這本書來查找這些漢語字符。他可以通過這本書來回答所有的問題,然后將這張紙放回到門口。在門的另一邊,講漢語的人閱讀這些答案,然后決定其是否正確。隨后她會決定在房間中的人是否懂漢語。很顯然,我們知道房間里的人并不懂漢語。那么這個實驗的關(guān)鍵點是什么? 這個房間里的人就是處理器,而這個房間就是一個程序,門下面的字條就是輸入。處理器將程序應(yīng)用到輸入上,然后產(chǎn)生一個輸出。這個簡單的思想實驗表明,電腦將永遠(yuǎn)不會理解智能,因為它永遠(yuǎn)不知道究竟發(fā)生了什么,它只是遵循指導(dǎo)而已。真正有智能的是這本書的作者或者編程序的人,而不是房間里的這個人或者處理器。 智能的新定義 所有在追求人工智能的人都在尋找符合人工智能定義的行為。但是John Searle已經(jīng)告訴我們電腦雖然可以產(chǎn)生智能行為,但是也并不是智能的。如果這個房間里的人或者處理器并不理解發(fā)生了什么,那它如何才能是智能的? 上面所有的討論都清晰地區(qū)分了行為和理解之間的區(qū)別。智能并不能簡單地通過行為來定義。行為只是智能的一種表現(xiàn)形式,僅此而已。想象一下你躺在一個黑暗房間中,你可以思考,因此你是智能的,但是你并不產(chǎn)生任何行為。 智能應(yīng)該定義為理解能力。《On Intelligence》作者Jeff Hawkins認(rèn)為通過預(yù)測行為可以實現(xiàn)這一點。他將之稱為「存儲預(yù)測框架」(Memory Prediction Framework)。想象這樣一個系統(tǒng):它會不斷地嘗試預(yù)測接下來要發(fā)生的事情。當(dāng)一項預(yù)測成功了,這個功能就是合理的;如果預(yù)測失敗,那么就將重點聚焦在失敗的地方,直到其能預(yù)測成功為止。例如,當(dāng)你坐在辦公桌前時,你聽到你的寵物項圈的叮鈴聲,你打開門,預(yù)期會看到你的寵物。如果你的預(yù)測成功了,那么一切正常,這就好像是無意識地在做一些事情;但是,如果預(yù)測不對,那么這個場景會成為關(guān)注的焦點,而你將去尋找你沒有看見寵物走進(jìn)去的原因。 對環(huán)境的持續(xù)預(yù)測能讓你理解環(huán)境。預(yù)測是智能的必要條件,而不是行為。如果我們可以編寫程序讓電腦或者神經(jīng)網(wǎng)絡(luò)具有預(yù)測能力,那么它就可以真正地理解其環(huán)境。正是這種理解使得機(jī)器變得智能。 那么你將如何定義人工智能的「智能」呢? 本文由機(jī)器之心原創(chuàng)編譯,轉(zhuǎn)載請聯(lián)系本公眾號獲得授權(quán)。 ------ |
|