關(guān)于人工智能的大規(guī)模商用項目,可能沒有什么比自動駕駛汽車離我們更近了。由此而來的一些爭議已經(jīng)不容置疑的擺上了臺面。 比如遇到緊急情況來不及剎車時,是選擇急轉(zhuǎn)彎造成乘客受傷還是選擇撞向無辜的行人?如果設(shè)定為寧可讓乘客受傷也不能傷害路人,這樣的車你會買嗎?反正我不買,禍禍誰呢?反過來如果選擇把無辜路人舍出去,你覺得社會輿論會讓這樣的車上路嗎? 再聊聊人工智能的難處。還記得阿莫西夫的機(jī)器人三定律嗎? 第一定律:機(jī)器人不得傷害人類,或者因不作為而使人類受到傷害; 第二定律:除非違背第一定律,否則機(jī)器人必須服從人類的命令; 第三定律:在不違背第一及第二定律時,機(jī)器人必須保護(hù)自己。 三定律定義嚴(yán)密,層層遞進(jìn),但依然解決不了上述的難題。 試想,把這三大定律輸入駕駛汽車的人工智能,如果遇到上邊說的緊急情況,人工智能要如何選擇?緊急轉(zhuǎn)彎就會因作為而傷害人類(乘客),不轉(zhuǎn)彎會因不作為而傷害人類(無辜路人),如果我是人工智能,不如干脆死機(jī)算了,太難了。 大家不難看出,以上不過是古老的電車難題的翻版而已,只是把人換成了人工智能。但如此就會讓自動駕駛汽車上不了路了嗎?當(dāng)然不會,有商業(yè)推動的科技進(jìn)步是絕無停止甚至倒退的可能,自動駕駛的時代注定會很快到來。 那么沒有絕對正確的道德算法怎么辦?其實并沒有想象的那么難,就像汽車剛剛誕生時的紅旗法案:汽車行駛速度不得超過時速5英里,而且前邊要有一個人舉著紅旗開道示警。我們現(xiàn)在會覺得這個法案非常愚蠢,因為它阻礙了人類的進(jìn)步,但廢除了紅旗法案又的確造成了車禍的發(fā)生。 這是悖論嗎?當(dāng)然不是,其實人類絕大多數(shù)的進(jìn)步都伴隨著不同程度的副作用,但進(jìn)步從未停止。從來都是在政府、民眾和資本的爭取和妥協(xié)中艱難的尋找那個基本公正的平衡點,并小心地維持,直到某一時刻平衡被打破。接下來繼續(xù)爭取、妥協(xié)直到找到下一個平衡點,莫不如此。那么,你覺得自動駕駛會例外嗎? |
|