機(jī)器人的崛起和“機(jī)器人法律”的出現(xiàn)引發(fā)了一些重要問題。以無人駕駛汽車的場景為例(這些穿梭在公路上的機(jī)器人極有可能會給我們的日常生活及商業(yè)帶來革命性變革),可以從法律上得出如下觀點(diǎn):其一,機(jī)器人規(guī)制必須要針對特定機(jī)器人以及具體場景而定。這就要求對特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認(rèn)識。其二,(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用并對機(jī)器人予以規(guī)制。其三,機(jī)器人法律受到社會“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實(shí)用主義的,那么在不遠(yuǎn)的將來,智能機(jī)器人就會被當(dāng)作人類來對待。那就意味著,智能機(jī)器人應(yīng)當(dāng)被賦予法律人格,并因此有能力取得并持有財(cái)產(chǎn)以及訂立合同。其五,反對將機(jī)器人當(dāng)作人類一樣對待的理由源自于認(rèn)識論與本體論層面。 ——霍斯特·艾丹米勒 律 法 機(jī)器人的崛起與人類的法律 霍斯特·艾丹米勒 | 文 李飛 敦小匣 | 譯 起 崛 人 器 機(jī) 一、人工智能與法律
一旦有法律人士參與到一場討論中,該話題的有趣部分往往就結(jié)束了。工程師與計(jì)算機(jī)專家在這方面有過之而無不及。在本文中,我將探討的是機(jī)器人與法律。因此,受主題所限,本文的娛樂前景可能有限。然而,法律與人工智能(AI)的互動卻會提出一些令人激動且頗為重要的問題;同時,這些問題的答案無疑將會在未來數(shù)十年影響人類的命運(yùn)。
人工智能正在快速地影響著我們的生活及工作方式。隨著人們的日常工作(包括手工操作及認(rèn)知層面)變得越來越自動化,預(yù)計(jì)到 2025 年,將會有大約三分之一的傳統(tǒng)職業(yè)被機(jī)器人(內(nèi)含人工智能)所取代法律將會決定人工智能的未來,比如,法律將決定人工智能允許使用的領(lǐng)域,新產(chǎn)品和新技術(shù)的成本,以及其他方面。此外,對人工智能的最初監(jiān)管決定將至關(guān)重要,這些決定可能會創(chuàng)建路徑依賴關(guān)系,并使日后更改管理過程變得困難。
規(guī)制人工智能將會充滿挑戰(zhàn)與困難。畢竟,法律是——并且始終是——由人類制定并服務(wù)于人類的。想想那些基礎(chǔ)概念吧,比如“人格”與“法律人格”。歷史上,這些概念都與人類(即自然人)有關(guān)。因此人工智能將會對法律體系產(chǎn)生影響:我們要如何對待機(jī)器人?我們要賦予它們法律人格嗎(使它們有權(quán)取得并持有財(cái)產(chǎn)、訂立合同等)?
在本文中,我將嘗試回答這些問題以及由于機(jī)器人崛起和“機(jī)器人法律”出現(xiàn)而引發(fā)的其他重要問題。本文的主要論點(diǎn)如下:其一,機(jī)器人規(guī)制必須要針對特定機(jī)器人以及具體場景而定。這就要求對特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀與宏觀效果有深刻的認(rèn)識。其二,(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用并對機(jī)器人予以規(guī)制。其三,機(jī)器人法律受到社會“深層次規(guī)范結(jié)構(gòu)”的影響。其四,如果該結(jié)構(gòu)是實(shí)用主義的,那么在不遠(yuǎn)的將來,智能機(jī)器人就會被當(dāng)作人類來對待。那就意味著,智能機(jī)器人應(yīng)當(dāng)被賦予法律人格,并因此有能力取得并持有財(cái)產(chǎn)以及訂立合同。其五,反對將機(jī)器人當(dāng)作人類一樣對待的理由源自于認(rèn)識論與本體論層面。這些觀點(diǎn)都關(guān)系到機(jī)器人是否能思考(它們不能)以及成為人類意味著什么。
我將主要以無人駕駛汽車的場景為例來闡述這些論點(diǎn)——這些穿梭在公路上的機(jī)器人極有可能會給我們的日常生活及商業(yè)帶來革命性變革。然而,為了闡明機(jī)器人給我們的社會結(jié)構(gòu)帶來的巨大的潛在影響,我會舉出更多的例子予以說明。
二、多種多樣的機(jī)器人與機(jī)器人的特征
1. 機(jī)器人的應(yīng)用
目前,在機(jī)器人的諸多發(fā)展領(lǐng)域中,對無人駕駛汽車的討論最多。事實(shí)的確如此,大多數(shù)汽車生產(chǎn)商都在試驗(yàn)無人駕駛汽車,這些汽車現(xiàn)已在世界各地的公路上進(jìn)行測試。谷歌似乎在這一領(lǐng)域一直處于領(lǐng)軍地位。谷歌汽車的一個重要特征是其不斷旋轉(zhuǎn)的車頂攝像頭,這個攝像頭可以發(fā)射出64 組激光柱并形成物體的 3D 影像,使汽車能夠自我定位。這種汽車的駕駛行為由復(fù)雜的軟件控制。
機(jī)器人另一個重要的應(yīng)用領(lǐng)域是醫(yī)學(xué)界。例如,型號只有 1-10/1,000,000 毫米大小的納米科技醫(yī)療機(jī)器人的模型已經(jīng)問世。這些納米科技醫(yī)療機(jī)器人將在病人的血液中穿行并進(jìn)入腫瘤,通過驅(qū)除一種重要的癌癥基因來進(jìn)行治療。
機(jī)器人也開始應(yīng)用于金融及金融咨詢行業(yè)?!皺C(jī)器金融顧問”的問世,可能會以其低成本、自動化投資的優(yōu)勢對經(jīng)濟(jì)業(yè)務(wù)進(jìn)行重組。比如,瑞銀集團(tuán)(UBS)最近宣布,其所屬的美國財(cái)富管理機(jī)構(gòu)的顧問將會利用機(jī)器人為資產(chǎn)雄厚的客戶提供服務(wù)。這項(xiàng)技術(shù)已由一家位于圣弗蘭西斯科的新興公司開發(fā)出來,公司的 7,000 多名顧問將使用這項(xiàng)技術(shù),這家名為 SigFig 財(cái)富管理(SigFig WealthManagement)的公司是一家發(fā)展迅速的機(jī)器顧問生產(chǎn)商。
最后,人工智能也將會從根本上改變法律職業(yè)。實(shí)際上,人工智能系統(tǒng)已開始輔助解決(自動化的)糾紛案, 而且,“機(jī)器人律師”也開始登上舞臺。例如,2016 年,美國一家律師事務(wù)所雇用了世界上第一個名為 Baker Hostedler 的人工智能律師,這個被認(rèn)證為 ROSS-Intelligence 的“機(jī)器人律師”應(yīng)用于破產(chǎn)重組與債權(quán)人權(quán)利保護(hù)部門。“機(jī)器人律師”主要應(yīng)用于文件檢索和查找歸類方面。在英格蘭,預(yù)測編碼(為查找文件進(jìn)行的分類)最近在 2016 年 5 月 17 日的 Brown vs BCA Trading 一案中得到了高等法院的支持?!皺C(jī)器人律師”還將應(yīng)用于(在線)起草法律文件,同時以區(qū)塊鏈技術(shù)為基礎(chǔ)的“智能合約”(smart contracts)將指日可待。
人工智能還會以“機(jī)器人法官”的形式出現(xiàn)?;谝唤M 150,000 例重罪案件組成的數(shù)據(jù), Kleinberg 等人研究發(fā)現(xiàn),基于機(jī)器學(xué)習(xí)(machine learning)預(yù)測的釋放裁決(尚懸而未決的案件)將會在不提高犯罪率的前提下,減少 25% 的監(jiān)獄人數(shù),或者在不改變監(jiān)獄人數(shù)的情況下降低 20% 的犯罪率。總之,機(jī)器人律師和機(jī)器人法官似乎會在諸多方面帶來顯著的正面影響,如使法律咨詢費(fèi)用更合理,作出的審判更準(zhǔn)確,并使多數(shù)人群獲得司法公正的機(jī)會。
2. 機(jī)器人的特點(diǎn)
就上述討論的例子而言,某些“機(jī)器人特征”對考慮機(jī)器人的規(guī)制很重要。正如前面提到的那樣,機(jī)器人是表現(xiàn)人工智能的一種形式,其組成部分包含了一個傳感器或其他的輸入機(jī)制、一個起控制作用的運(yùn)算法則以及對外界作出回應(yīng)的能力。這三個部分一起組成了所謂的“感應(yīng)-思考-行為范式”。傳感器或其他的輸入機(jī)制可以從多個源頭獲得感應(yīng),就如同“網(wǎng)絡(luò)汽車”(networked cars)那樣。如上所述,網(wǎng)絡(luò)汽車會利用攝像頭、來自 GPS 的交通數(shù)據(jù),以及來自互聯(lián)網(wǎng)的地理數(shù)據(jù)。
智能機(jī)器人具備機(jī)械學(xué)習(xí)的能力,例如,它們不但可以利用海量的現(xiàn)有數(shù)據(jù),而且還能利用來自實(shí)踐的數(shù)據(jù)以及其他新信息去調(diào)整它們的行為。因此,在一定程度上,這些機(jī)器人被刻意設(shè)計(jì)得變幻莫測。一個有趣的問題是,在某個時候,機(jī)器人能否達(dá)到超人(super-human)的智力水平。這種想法常被歸結(jié)為“奇點(diǎn)”(singularity)。機(jī)器人可能會獲知它們是怎樣被人類控制的,并實(shí)現(xiàn)自我控制。但就目前而言,關(guān)于“奇點(diǎn)”的爭辯還更多地停留在學(xué)術(shù)(以及虛構(gòu)的)層面,而非現(xiàn)實(shí)層面。
在各種形態(tài)的機(jī)器人當(dāng)中,一個重要的子類別便是“社交機(jī)器人”(social robots)。這種機(jī)器人是專門設(shè)計(jì)出來與人類互動的,這類似于那些具有人類特征的兒童玩具。研究已經(jīng)確認(rèn)了“社交機(jī)器人”的“社會價值”:人類把擬人化的機(jī)器人當(dāng)成人類一樣對待。這就潛在地產(chǎn)生了重要的規(guī)制意義。
三、規(guī)制無人駕駛汽車 1. 無人駕駛汽車的前景
本文提出的第一個論點(diǎn)是,機(jī)器人規(guī)制必須基于“特定的機(jī)器人語境”,這要求對特定領(lǐng)域的“機(jī)器人行為”產(chǎn)生的微觀及宏觀效果有深刻的理解。我將以全自動汽車的事故責(zé)任為例來闡述這一論點(diǎn),這是測試“機(jī)器人法律”很好的例子。
在未來的 20 到 25 年中,行駛在公路上的汽車大概會有 75% 為無人駕駛汽車。與這一趨勢相關(guān),會隨之出現(xiàn)許多重大的積極進(jìn)展。首先,我們看到的是,汽車事故會明顯減少。同時——也是更為重要的——死亡事故會減少。目前,世界上每年在汽車事故中喪生的人數(shù)大概有 130 萬。這些致命的事故中大約有 90% 是由人為失誤造成的,9% 是因環(huán)境條件引起的,不到 1% 的事故是因技術(shù)缺陷導(dǎo)致的。其次,殘疾人、老年人的流動會增加。同時,駕駛的機(jī)會成本會顯著降低。平均算下來,我們一生中會花費(fèi) 4 年以上的時間用于開車,而且,我們駕車時,并非總能像開著寶馬一樣給你帶來“純粹的駕駛快感”。我們可以將花在車輪上的時間用于做更有價值的事情,如閱讀、思考或者僅僅只是做夢。另外,由于汽車的共享,我們在大街上看到的汽車會越來越少,這將會節(jié)省停車空間,縮短出行時間并減少汽車尾氣排放。
不過,也會出現(xiàn)一些負(fù)面問題。首先,在某些行業(yè),會有更多人失業(yè)。出租車與公交車駕駛員顯然會首當(dāng)其沖。其次,隨著汽車聯(lián)網(wǎng)的普及,汽車更容易受到破壞性的網(wǎng)絡(luò)攻擊,這樣,發(fā)生“重大事故”的風(fēng)險就更大了。另外,盡管離奇的“小”事故比較少見,但是仍會發(fā)生。2016 年上半年便發(fā)生了兩起這樣的事故。在一起事故中,一輛谷歌汽車在加州的芒廷維尤(Mountain View)變換車道時撞上了一輛公交車。這輛谷歌汽車損毀嚴(yán)重,而公交車只是被輕微地剮蹭。在另一起較為嚴(yán)重的事故中,一輛以無人駕駛模式行駛的特斯拉汽車在佛羅里達(dá)州撞上了一輛貨車,特斯拉汽車的駕駛者在這起事故中喪生。顯而易見,特斯拉的傳感系統(tǒng)沒能識別對向駛來的貨車。
因此,上述事例表明,針對這種技術(shù)的宏觀與微觀影響,機(jī)器人的有效規(guī)制必須適當(dāng)調(diào)整——相關(guān)規(guī)制必須能夠應(yīng)對特定機(jī)器人帶來的社會變化,并同時能夠應(yīng)對日常生活中出現(xiàn)的風(fēng)險與機(jī)會。
2.全自動汽車的事故責(zé)任
接下來,針對全自動汽車的事故責(zé)任問題,我將闡述第二個論點(diǎn):(完善的)現(xiàn)有法律類型能夠被合理地應(yīng)用于機(jī)器人,并能有效規(guī)制它們的行為。其中,我將提出并回答的問題是:如果發(fā)生了事故,誰來承擔(dān)侵權(quán)責(zé)任?我不會分析現(xiàn)有的法律體系是如何處理這一問題的;相反,如果有人來設(shè)計(jì)剮蹭事故的責(zé)任體系,我將對最佳“方案”頗感興趣。因此,我將考慮各種可能性:①無人承擔(dān)責(zé)任(“損失自負(fù)”);②汽車生產(chǎn)商承擔(dān)責(zé)任;③人工智能(設(shè)備)生產(chǎn)商承擔(dān)責(zé)任(并非汽車生產(chǎn)商);④汽車所有人承擔(dān)責(zé)任(全自動汽車沒有“駕駛?cè)恕保?;⑤汽車自己承?dān)責(zé)任。最后一種可能性看上去似乎特別異想天開,但是,事情正在快速地演變。2015 年,在瑞士的一件藝術(shù)裝置中,一個機(jī)器人在暗網(wǎng)(dark web)上購買了搖頭丸和一本偽造的匈牙利護(hù)照,還有其他東西。這個機(jī)器人——而非藝術(shù)家或者其他人——被圣加侖的警察局逮捕,并于三個月后釋放。
考慮到上述五種可能性,基于若干原因,汽車生產(chǎn)商的嚴(yán)格責(zé)任——第二個規(guī)制選擇——似乎更受青睞。
首先,無人承擔(dān)責(zé)任的解決方案顯然無法接受??深A(yù)期的(事故)成本將不會被生產(chǎn)商予以內(nèi)化,因此,他們會在不當(dāng)激勵下以過低的成本與價格生產(chǎn)過量的汽車。與此同時,在“無人承擔(dān)責(zé)任的機(jī)制”之下,我們將不愿意去購買和(或)使用自動汽車——甚至可能會完全逃避此類活動。
在汽車生產(chǎn)商的嚴(yán)格責(zé)任制度下,該責(zé)任的建立并不需要主觀過錯,只要具備有缺陷的產(chǎn)品和因果關(guān)系即可。生產(chǎn)商貌似最能有效控制風(fēng)險并平衡“駕駛”全自動汽車技術(shù)的收益與成本:生產(chǎn)商研發(fā)并使用人工智能,而且非常熟悉相關(guān)技術(shù)。例如,谷歌對上述汽車事故的反應(yīng)顯然迅速而老練,能夠很快地查找到造成事故的原因。
此外,相較于嚴(yán)格責(zé)任制度,在生產(chǎn)與銷售全自動汽車的過程中,過失責(zé)任制度要求法院確定生產(chǎn)商應(yīng)保持的謹(jǐn)慎程度。和所有新興、復(fù)雜的技術(shù)一樣,這項(xiàng)操作非常煩瑣。另外,過失責(zé)任制度并不控制生產(chǎn)商的“行為層次”(activity level),如汽車生產(chǎn)與銷售的數(shù)量。因此,嚴(yán)格責(zé)任制度似乎是更好的選擇。
第三個規(guī)制選擇——人工智能(設(shè)備)生產(chǎn)商與汽車的生產(chǎn)商不是同一家時,前者的責(zé)任如何?我認(rèn)為,在一項(xiàng)復(fù)雜的技術(shù)產(chǎn)品中,一般來說很難將事故的原因梳理清楚,特別是涉及全自動汽車時。而且汽車生產(chǎn)商“控制著”系統(tǒng),包括所有的組成部件。所以,汽車生產(chǎn)商可能是“最低成本避免者”(cheapest cost avoider)。就對第三方的侵權(quán)責(zé)任而言,汽車生產(chǎn)商應(yīng)當(dāng)是唯一的責(zé)任承擔(dān)者。當(dāng)然,如果事故最終判定是由存在缺陷的人工智能設(shè)備造成的,汽車生產(chǎn)商可以從設(shè)備生產(chǎn)商那里獲得賠償。為了應(yīng)對這一風(fēng)險,法律應(yīng)該規(guī)定生產(chǎn)商購買產(chǎn)品責(zé)任保險。
事實(shí)上,責(zé)任承擔(dān)問題的上述“解決方案”似乎是隨著市場與私人承包業(yè)務(wù)的變化而變化的。例如,在 2015 年年底,沃爾沃宣布將對無人駕駛汽車的后果承擔(dān)責(zé)任。在這一聲明中,沃爾沃向市場發(fā)出了一個強(qiáng)有力的信號:我們對自己的技術(shù)有信心。這個信號給競爭者造成了很大壓力并迫使它們?nèi)绶ㄅ谥啤I鲜觥胺桨浮币步梃b了產(chǎn)品責(zé)任指令(85/374/EEC)所規(guī)定的法律現(xiàn)狀,但有一個例外:根據(jù)這一指令,汽車的生產(chǎn)商和零部件的生產(chǎn)商將承擔(dān)連帶責(zé)任[第 3(1)、5、7(f)條]。
嚴(yán)格侵權(quán)責(zé)任制度的一個問題就是:源于全自動汽車所有人層面的事故要求汽車生產(chǎn)商承擔(dān)責(zé)任。所以,顯而易見,事故發(fā)生的可能性很大程度上取決于行為層面:公路上的汽車越多,發(fā)生的交通事故也會越多。同樣明顯的是,汽車所有人控制著行為層面,即取決于他(她)的個人喜好、商業(yè)模型等。只要把出租汽車公司和私家車車主放在一起想想即可。因此,控制汽車車主的行為水平是有效責(zé)任機(jī)制的重要組成部分。
我們可以想想解決這一問題的各種潛在“方案”。一個方案就是根據(jù)汽車所有人的行為情況,要求他們與生產(chǎn)商共同承擔(dān)責(zé)任;另一個方案就是將汽車的銷售與責(zé)任保險捆綁在一起,保險費(fèi)則依生產(chǎn)商、汽車類型、所有者或使用者的情況來確定。這種個性化的保險現(xiàn)如今已可購得。這種保險常被稱為“黑匣保險”,這是因?yàn)槠嚿习惭b了一臺小型“黑匣”設(shè)備,尺寸如智能手機(jī)般大小,用來記錄汽車行駛的速度、距離以及汽車白天、晚上行駛的時間。這個設(shè)備通過監(jiān)測速度與轉(zhuǎn)彎也能確定駕駛風(fēng)格。此外,為了建立全面的駕駛資料,該設(shè)備還能記錄汽車通常行駛的道路類型以及晝夜運(yùn)行的時間。
四、將智能汽車(機(jī)器)當(dāng)作人類一樣對待 到目前為止,我尚未討論第五個用于規(guī)制全自動汽車引發(fā)事故的潛在應(yīng)對措施,即要求汽車自己承擔(dān)責(zé)任。但是,這個問題可以用來闡述本文的第三個論點(diǎn),即機(jī)器人法律會并且將會受到一個特定社會的“深層次規(guī)范結(jié)構(gòu)”的影響。例如,如果一個社會的規(guī)范結(jié)構(gòu)是功利主義的(utilitarian),這一結(jié)構(gòu)將如何影響對上述問題的回應(yīng)呢?
如前文提到的那樣,因?yàn)闄C(jī)器學(xué)習(xí),生產(chǎn)商無法(全面)預(yù)見智能汽車的行為。所以,我們開始思考可能會在某一時刻,被迫為汽車生產(chǎn)商尋找借口并要求汽車本身來承擔(dān)責(zé)任。從概念上來說,這暗示了我們需要承認(rèn)汽車有法律能力(legal capacity)。如果汽車能夠承擔(dān)責(zé)任,我們也許會得出這一結(jié)論:汽車也有權(quán)取得財(cái)產(chǎn)、訂立合同等。確實(shí),在實(shí)用主義的背景下,似乎有大量的觀點(diǎn)都支持朝這個方向發(fā)展。
其一,智能汽車看上去(在功能上)能夠有目的地從事一些活動。它們展現(xiàn)了所謂“道德的”或“法律的”行為能力,比如,在某些類似的情境中,智能汽車可以像自然人一樣從事某些活動。其二,我們像對待自然人一樣對待擬人化的機(jī)器人??傮w來看,難道我們不應(yīng)該賦予它們權(quán)利,發(fā)出反對人類虐待的信號嗎?用這種方式保護(hù)機(jī)器人將會對人類的互動產(chǎn)生有益的反饋效應(yīng)。其三,我們賦予公司以法律人格。法律學(xué)者們就公司人格是基于虛構(gòu)(如馮·薩維尼主張)還是公司的某種“實(shí)體”(real),抑或有什么東西可以稱之為“真實(shí)的團(tuán)體人”(real group-person)(如馮·基爾克主張)存在長期的爭議。智能汽車(機(jī)器人)似乎比公司法人更為“實(shí)在”。在此,我應(yīng)該指出,“人格”(persona)這個拉丁詞的原始意思就是面具或者角色。羅馬法承認(rèn)了各種作為非自然人卻享有權(quán)利并承擔(dān)義務(wù)的主體,比如自治城市(municipia)或者工會(collegia)。
假如我們將智能汽車(機(jī)器)當(dāng)作人類來對待并賦予它們法律人格,我們可以將汽車的所有權(quán)與責(zé)任保險捆綁在一起。這種安排將允許我們針對汽車事故考慮其他有創(chuàng)意的制裁措施,如取消汽車的法律能力,將汽車扣押一段時間(像瑞士 Art Installation 案一樣)或者直接將汽車銷毀。
五、反對將機(jī)器人當(dāng)作人類一樣對待的案例 誠然,對于考慮賦予智能汽車(機(jī)器)法律人格,我們大多數(shù)人會感覺非常不安。正如我引入本文論點(diǎn)時所表明的那樣,這些不安停留在認(rèn)識論和本體論的層面上。可以說,因?yàn)橹挥腥祟惪梢岳斫鈾?quán)利與責(zé)任的意思,所以法律能力或者人格是與人類相關(guān)聯(lián)的。思考涉及對生活的積極投入,融入文化、特定情形的“專有技術(shù)”以及永遠(yuǎn)不會被規(guī)則架構(gòu)的常識。思考遠(yuǎn)非形式上的符號操作(句法),而是涉及對這些符號的意思(語義學(xué))的感知,但機(jī)器人卻沒有這種感知能力。我們可以通過編程使機(jī)器人符合(conform)規(guī)則,但它們并不能遵守(follow)規(guī)則。對規(guī)則的遵守預(yù)設(shè)了對規(guī)則的意思的理解,然而,機(jī)器人并沒有這種理解能力,它們在解釋學(xué)(hermeneutics)這個學(xué)科并不活躍——而且,它們永遠(yuǎn)不會。
我將要提出的第二個論點(diǎn)——反對把機(jī)器人當(dāng)作人類——這類情形的論據(jù)存在于本體論層面。大體上,某一特定社會的法律以及賦予該特定社會成員的權(quán)利與義務(wù)是“人類境況”(human condition)的表達(dá)。法律反映了我們所認(rèn)為的人類有序交往的前提條件,但同時也反映了我們認(rèn)為處于人性核心的東西,以及處于核心的人何以為人的意義。我們要從整體上想想基本人權(quán),特別是言論自由,但也要想想諸如墮胎或者同性婚姻這類頗有爭議的問題。如果我們將法律人格賦予機(jī)器(即便這些機(jī)器都是智能的,甚至比人類還要聰明),讓它們有權(quán)取得財(cái)產(chǎn)、訂立合同,這簡直會使這個世界非人化(dehumanizing)。因此,將機(jī)器人當(dāng)作人類一樣對待將會使人類非人化,所以我們應(yīng)當(dāng)避免持有這種態(tài)度。
公司的人格——弱化將機(jī)器人當(dāng)作人類對待的情形——是一個好的對立觀點(diǎn)嗎?本文并不這樣認(rèn)為。公司與機(jī)器人的重大區(qū)別在于,公司總是“通過”人類來運(yùn)營。由人來組成董事會,且董事會的行為被歸結(jié)為公司的行為。同樣,在公司里,人工智能也變得越來越重要。與此同時,人類也會作出最終決定——至少在“奇點(diǎn)”(singularity)(超人智能的水平)到來之前是這樣的。
六、未來(政策)之路 最后,人工智能提出了具有重大潛在社會影響且又復(fù)雜的監(jiān)管問題。通過上述討論,我們對此應(yīng)該有所了解了。如前所述,法律須規(guī)定人工智能可以被應(yīng)用的形式,以及在特定情境下使用(某種)人工智能可能要承擔(dān)的責(zé)任。只要想想比人類聰明的“醫(yī)療專家”就可以明白這一點(diǎn)。法律須界定機(jī)器人與(或)它們的所有者的權(quán)利與責(zé)任。由于越來越依賴人工智能,公司管理將會發(fā)生根本變化。
然而,更重要的是,使用人工智能帶來的問題必須予以重視。人工智能的使用無疑會是權(quán)力的重要來源。強(qiáng)勢的當(dāng)事人為了個人利益可能借助智能技術(shù)對交易施加壓力,處于弱勢地位的當(dāng)事人可能會蒙受損失。某些智能技術(shù)會是公共商品(public goods)嗎?它們應(yīng)當(dāng)以低成本為公眾所用嗎?
這些及其他問題都引發(fā)了深層次的哲學(xué)問題,而機(jī)器人法規(guī)將會被我所稱的社會的“深層次規(guī)范結(jié)構(gòu)”所影響。一個社會是基于功利主義的“良善”(the good)概念,還是基于人道主義或康德式的此一恰恰相反的觀點(diǎn)(即并非每一個有效用的或使財(cái)富最大化都必然是好政策),這一點(diǎn)是非常重要的。顯而易見的是,功利主義的“良善”概念傾向于將社會推進(jìn)到機(jī)器人依據(jù)法律最終扮演重要角色的方向。
這就是機(jī)器人法律會形成規(guī)制多樣與規(guī)制競爭特征的其中一個原因:由于存在于不同社會的“深層次規(guī)范結(jié)構(gòu)”的重大差異,各國就共同政策(common policies)很難達(dá)成一致意見。此外,各國向人工智能產(chǎn)業(yè)吸引投資的動機(jī)也激起了規(guī)制競爭?!肮δ苤髁x的國家”可能會制定更多“機(jī)器人友好型”(robot friendly)的法律,并迫使其他法域如法炮制。
最后,如上所述,人工智能也將從根本上改變立法與法律職業(yè)。這提出了一個有趣的問題——在將來某個時刻,(以人工智能為基礎(chǔ)的)智能立法是否會輔助我們規(guī)制人工智能產(chǎn)品與服務(wù)?智能技術(shù)無疑會在技術(shù)層面上為增強(qiáng)立法的效率提供重大幫助。另一個完全不同的問題是,這些技術(shù)是否能幫助我們解決需要作出復(fù)雜價值判斷的那些煩瑣的監(jiān)管問題?在這一點(diǎn)上,我深感懷疑。再者,機(jī)器既不能思考,也不能解決深奧的哲學(xué)問題。沒有人比歌德更清楚明白地表述過這一點(diǎn):“只有人類能夠觸及那些不可思議的事物:他們辨別著、選擇著、判斷著……”
順便說一下,科學(xué)研究與寫作現(xiàn)今也可以得到人工智能的輔助,已經(jīng)有軟件可以寫作學(xué)術(shù)論文。遺憾的是,我沒有找到可以幫助我準(zhǔn)備這篇文章的軟件。本文飽含了太多的人類的因素——因此這也是其缺點(diǎn)。 文章來源:《法治現(xiàn)代化研究》 |
|