濫觴于20世紀(jì)初的人工智能因大數(shù)據(jù)、云計(jì)算的技術(shù)突破而重新煥發(fā)生機(jī),技術(shù)革命的演進(jìn)為人類打開步入智能融合的數(shù)字社會(huì)的大門,人類的行為模式和思維活動(dòng)隨著各領(lǐng)域技術(shù)的延展而蛻變。自勞倫斯·萊斯格(Lawrence Lessig)教授的《代碼2.0》出版以降,新技術(shù)與規(guī)范之間在本質(zhì)論層面產(chǎn)生了緊張關(guān)系。萊斯格教授將代碼與法律的互動(dòng)關(guān)系喻為東西海岸之爭,用以說明究竟是技術(shù)塑造了法律規(guī)范,還是法律形塑了技術(shù)規(guī)范。他的核心觀點(diǎn)直指要害,任何技術(shù)的規(guī)制路徑都應(yīng)當(dāng)包含市場、架構(gòu)、社會(huì)規(guī)范和法律四個(gè)維度,人工智能所特有的國家、社會(huì)、商業(yè)、倫理縱橫交錯(cuò)的復(fù)雜利益關(guān)系導(dǎo)致人工智能的安全問題不斷復(fù)雜化,從萊斯格教授處抽絲剝繭式覓得人工智能安全規(guī)制的完美答案已成奢望。 內(nèi)外雙重視角下的安全秩序 圖靈意義上的人工智能是通過人類知識(shí)驅(qū)動(dòng)推理的機(jī)械化運(yùn)作方案,而隨著云計(jì)算技術(shù)不斷的衍化、迭代,現(xiàn)代意義上的人工智能由算法和數(shù)據(jù)耦合所構(gòu)成,呈現(xiàn)出數(shù)據(jù)驅(qū)動(dòng)計(jì)算運(yùn)作機(jī)理。以機(jī)器學(xué)習(xí)能力為界,有學(xué)者將人工智能區(qū)分為“符號(hào)主義”的老派人工智能和“聯(lián)結(jié)主義”的新人工智能;也有按人工智能的聰慧等級(jí)來劃分,將人工智能分為弱人工智能與強(qiáng)人工智能(當(dāng)前強(qiáng)弱區(qū)分說已經(jīng)成為主流觀點(diǎn))。誠然,無論何種分類標(biāo)準(zhǔn),都對(duì)人工智能的社會(huì)作用不謀而合,即人工智能正在顛覆人類既有的社會(huì)思維習(xí)慣和法律規(guī)制方案。此外,從國家競爭的角度來看,人工智能也是各國軍備競賽、爭奪霸權(quán)的“隱形”戰(zhàn)場,甚至有不少國家為了謀取優(yōu)勢(shì)地位而選擇性忽略對(duì)人工智能脫韁所帶來的倫理問題。人工智能所獨(dú)有的政治性、社會(huì)性以及錯(cuò)綜復(fù)雜的利益結(jié)構(gòu),需要從治理層面重視人工智能安全問題。一方面要從內(nèi)部技術(shù)視角關(guān)注算法安全和數(shù)據(jù)安全,同時(shí)也要從外部視角關(guān)注倫理安全和國家安全。 人工智能的安全秩序包含算法安全、數(shù)據(jù)安全、國家安全、倫理秩序安全四個(gè)維度,傳統(tǒng)規(guī)制人工智能觀念正經(jīng)歷著迭代、升級(jí),數(shù)字正義(digital justice)作為技術(shù)領(lǐng)域的全新秩序價(jià)值正發(fā)展成為普遍共識(shí)。數(shù)字正義并非僅關(guān)乎在線糾紛的解決,它的核心在于厘清科學(xué)技術(shù)產(chǎn)生各種類型糾紛的本源,以期利用法律、技術(shù)共同預(yù)防和解決糾紛的產(chǎn)生。作為人工智能安全價(jià)值基礎(chǔ)的數(shù)字正義理論包含數(shù)據(jù)正義(data justice)、算法正義(algorithm justice)、國家安全、人類安全四層次的內(nèi)涵。當(dāng)前人們多將目光聚焦在數(shù)據(jù)正義(data justice)領(lǐng)域,歐盟的《統(tǒng)一數(shù)據(jù)保護(hù)條例》、中國納入立法規(guī)劃的《個(gè)人信息保護(hù)法》都是在信息自決的理念基礎(chǔ)上對(duì)數(shù)據(jù)流動(dòng)安全、數(shù)據(jù)使用公平問題所作的法律秩序安排。 算法規(guī)制與算法正義 囿于當(dāng)今的技術(shù)條件和科技水平,我們可以預(yù)見,人類社會(huì)仍將長期處于弱人工智能時(shí)代,當(dāng)前算法歧視、算法暴政已經(jīng)直接威脅到人類科技與經(jīng)濟(jì)民主。有鑒于此,算法正義是這個(gè)時(shí)代需要關(guān)切的重點(diǎn)及難點(diǎn),由人工智能安全的內(nèi)部視角來觀察人工智能規(guī)制,會(huì)發(fā)現(xiàn)其核心即是對(duì)算法設(shè)計(jì)本身的規(guī)制,弗蘭克·帕斯奎爾(Frank Pasquale)認(rèn)為一切算法的本質(zhì)是黑箱,這一觀點(diǎn)在技術(shù)層面的隱喻為:機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)中存在隱層邏輯使得設(shè)計(jì)者無法對(duì)機(jī)器學(xué)習(xí)的優(yōu)化結(jié)果做出合理的解釋。但從算法的外部效應(yīng)來看,黑箱具有相對(duì)性,所謂“算法黑箱”僅指對(duì)用戶的不透明,對(duì)設(shè)計(jì)者來說算法是一種公開且透明的技術(shù)實(shí)踐方案。因此,無論是要求算法設(shè)計(jì)者強(qiáng)制披露、算法設(shè)計(jì)者完成設(shè)計(jì)時(shí)自我驗(yàn)證以確保算法的有效性,還是充分尊重用戶個(gè)人選擇,賦予用戶事后的算法解釋權(quán),以化解合同雙方的力量不對(duì)等狀態(tài),限制“算法權(quán)力”,其重點(diǎn)都在于人工智能領(lǐng)域安全維護(hù)需要對(duì)作為溝通工具的算法進(jìn)行規(guī)制。 真正擁有自我意識(shí)及感覺的“強(qiáng)人工智能”并不完全是“水中月,鏡中花”。牛津大學(xué)人類未來研究所的Katja Grace及其研究小組在《人工智能何時(shí)超越人類》中指出,裹挾了過多周邊技術(shù),如區(qū)塊鏈、量子計(jì)算、納米科技、基因工程等技術(shù)的人工智能極有可能發(fā)展為互聯(lián)網(wǎng)時(shí)代的“利維坦”。2017年IEEE發(fā)布《倫理一致的設(shè)計(jì):將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》;同年2月,歐洲議會(huì)通過了針對(duì)人工智能科研人員和研究倫理委員會(huì)(REC)的一系列必須遵守的倫理準(zhǔn)則——《人工智能倫理準(zhǔn)則》(機(jī)器人憲章)。類似的規(guī)定都要求智能機(jī)器人的開發(fā)需要遵循人類利益的最大化原則,且機(jī)器人不得傷害人類。 關(guān)注人類整體利益 人工智能和基因科技使得作為自然人的主體性及其終極基礎(chǔ)的理性與自由意志在未來智能社會(huì)中并非絕對(duì)具有正當(dāng)性,人類的主體性正在被技術(shù)消解,在強(qiáng)人工智能來臨之前,各國作為人工智能安全問題的命運(yùn)共同體,應(yīng)該達(dá)成相應(yīng)的倫理共識(shí)——開發(fā)人工智能以重視人的安全為中心。人工智能發(fā)展本身涉及行為人之間復(fù)雜的經(jīng)濟(jì)政治關(guān)系,規(guī)制方案的設(shè)計(jì)應(yīng)當(dāng)盡可能提前,并遵循共同的理念,以過程化治理取代結(jié)果治理,易言之,人工智能的治理更多地應(yīng)當(dāng)呈現(xiàn)出一種行為規(guī)制的特點(diǎn)。但是,這樣的過程性規(guī)制最終仍需要依附于人工智能特殊領(lǐng)域的事業(yè)活動(dòng)來展開。我們應(yīng)當(dāng)警惕身披技術(shù)發(fā)展外衣的濫用行為,如避免人工智能自動(dòng)化武器的開發(fā)與應(yīng)用、防止人工智能在基因科技領(lǐng)域的濫用等。對(duì)國家安全而言,我們應(yīng)當(dāng)警惕在西方“超人文化”主導(dǎo)的時(shí)代環(huán)境下,人工智能的技術(shù)鴻溝所導(dǎo)致的被“永久邊緣化”的風(fēng)險(xiǎn)。人工智能的安全有賴于人類命運(yùn)共同體理念的實(shí)踐,關(guān)注作為整體的國家利益、技術(shù)利益發(fā)展的同時(shí),應(yīng)當(dāng)關(guān)注人類整體的利益。這種與超人思想截然不同的理念將進(jìn)一步彌合“人工智能的沖突”,創(chuàng)造和諧的人工智能治理秩序。 霍金預(yù)言:“人工智能并非人類文明的終結(jié)者,真正會(huì)終結(jié)人類文明的是人類自身?!比斯ぶ悄馨踩罱K落腳點(diǎn)是人的安全,法律規(guī)制只是人工智能與安全秩序通約的一種工具,如何在人工智能技術(shù)內(nèi)在體系與外部規(guī)制方案之間尋求內(nèi)外兼?zhèn)涞钠胶鉅顟B(tài),創(chuàng)造和諧的人工智能治理秩序,是眼下必須思索的問題。 |
|