人工智能的蓬勃發(fā)展,不僅是國(guó)家戰(zhàn)略,也是生活實(shí)踐的需要。在傳染病流行時(shí),如果醫(yī)療機(jī)器人能夠輔助治療,比如遠(yuǎn)程問診、智能送藥等,那么它必能在傳染病防治中保護(hù)醫(yī)護(hù)人員并節(jié)約許多資源。但如果機(jī)器人并非輔助治療而是擔(dān)任主治,根據(jù)其深度學(xué)習(xí)的診斷標(biāo)準(zhǔn)誤判了病況,并致使患者死亡,我們應(yīng)該向誰(shuí)問責(zé)?醫(yī)院、醫(yī)生、患者、家屬、制造商、銷售商、開發(fā)者還是機(jī)器人本身? 以備受矚目的無(wú)人駕駛汽車為例,如果其處于一種必須做出選擇的經(jīng)典道德情境中,即面臨一種需要“殺一救五(多)”的情境,比如前面有五位或者多位行人穿行馬路,需要做出決策:要么自動(dòng)駕駛汽車轉(zhuǎn)向讓車和毀掉司機(jī)以保護(hù)行人安全,要么保全自動(dòng)駕駛汽車以保全司機(jī)。經(jīng)典研究發(fā)現(xiàn),如果確實(shí)為了保護(hù)行人車毀人亡的話,人們只會(huì)將很少的道德責(zé)任歸咎于這輛無(wú)人駕駛汽車。大多數(shù)人認(rèn)為就應(yīng)該這樣做,但諷刺的是,大多數(shù)人也表示如果這樣就不會(huì)去購(gòu)買這輛汽車。這便存在一個(gè)悖論,即希望人工智能做出功利主義決策,但在實(shí)際生活中又不希望它發(fā)生在自己身上。 其實(shí),人類并不希望人工智能輔助決策,當(dāng)然也包括道德決策。各種研究表明,人類會(huì)對(duì)人工智能做出的決策產(chǎn)生厭惡。人們不喜歡人工智能在自動(dòng)駕駛、法律、醫(yī)療和軍事方面做出與生死相關(guān)的道德決策,哪怕這些決策最終被認(rèn)為是正確的,結(jié)果是好的、積極的。事實(shí)上,人類對(duì)人工智能在某種意義上存在道德規(guī)范上的歧視。究其原因,這可能是人類在對(duì)待人工智能時(shí)使用了人類的道德規(guī)則。那么,如何消除這種歧視,是否可以形成一套穩(wěn)固的、不同于人類的人工智能道德規(guī)范呢? 我們的研究早已發(fā)現(xiàn),中國(guó)人偏好做出道德相對(duì)主義判斷。這是因?yàn)橹袊?guó)人具有一種樸素的辯證思想,即認(rèn)為正反兩面都對(duì)的道德原則。這種思維方式容忍矛盾互斥的觀點(diǎn)同時(shí)存在,能夠消除人們處于道德兩難困境中的焦慮和不安。辯證思維與道德相對(duì)主義二者都有一個(gè)關(guān)鍵的特性,即對(duì)矛盾的包容。道德判斷過程中認(rèn)為正反兩面皆對(duì),且會(huì)隨著關(guān)系、環(huán)境的變化而變化的辯證思維方式,正是道德相對(duì)主義的表現(xiàn)。 對(duì)于人工智能而言,能否形成一種不同于人類的道德規(guī)則?雖然人工智能的道德規(guī)則可能與人類現(xiàn)有的道德規(guī)則相抵觸,但人類依然可用道德相對(duì)主義的眼光去看待它,以解決人工智能的倫理決策問題。這是一種解決問題之道,但卻相當(dāng)困難。心理學(xué)研究表明,在人類認(rèn)知中,人們傾向于將人工智能當(dāng)作孩子(甚至是不足4歲的孩子)來(lái)看待。而兒童正處于道德刻板之時(shí),這也可以部分解釋為什么人類不希望人工智能來(lái)做出道德判斷,因?yàn)槿祟愐膊惶M珊⒆觼?lái)輔助他做出道德決策。 一方面,兒童沒有能力做出道德相對(duì)主義判斷。目前的實(shí)證研究證據(jù)表明,道德相對(duì)主義傾向會(huì)隨著年齡的增大而變強(qiáng)。相對(duì)于兒童,成人更加傾向于道德相對(duì)主義。學(xué)生從七年級(jí)到大學(xué)階段,道德相對(duì)主義程度會(huì)逐漸提高。這可能是由于學(xué)生在這個(gè)階段要離開家人,他們要學(xué)習(xí)新的知識(shí),獨(dú)立地生活,思維也變得更加靈活。有研究考察了5歲、7歲和9歲的兒童在道德、品味、事實(shí)以及模棱兩可的事實(shí)四個(gè)領(lǐng)域中,對(duì)不同命題所表現(xiàn)出來(lái)的相對(duì)主義程度。在每個(gè)領(lǐng)域的任務(wù)中,均向兒童呈現(xiàn)A和B兩個(gè)人對(duì)某一命題的判斷結(jié)果,且這兩種觀點(diǎn)是相互矛盾的。然后,研究者讓兒童進(jìn)行判斷(如:你覺得A和B的說(shuō)法只有一個(gè)人是正確的,還是A和B的說(shuō)法都是正確的?)。結(jié)果顯示,在道德與事實(shí)領(lǐng)域,兒童更傾向于做出客觀主義判斷;在模棱兩可的事實(shí)領(lǐng)域,他們的相對(duì)主義程度較高;而在品味領(lǐng)域,選擇相對(duì)主義答案的人最多,且兒童年齡越大越傾向于做出相對(duì)主義判斷。還有研究讓4歲至6歲的孩子對(duì)道德問題、美學(xué)問題和常識(shí)進(jìn)行對(duì)錯(cuò)判斷,這個(gè)年齡段的兒童對(duì)于道德問題的判斷與后兩種問題不同,他們對(duì)道德問題會(huì)更加傾向于做出客觀主義判斷。還有研究者讓大學(xué)生判斷來(lái)自不同文化的兩個(gè)人針對(duì)“打人”這一事件的不同看法,其中一個(gè)人認(rèn)為打人是對(duì)的,而另一個(gè)人認(rèn)為打人是錯(cuò)的。研究者提供給被試三個(gè)選項(xiàng),分別表述了認(rèn)同前者是對(duì)的、認(rèn)同后者是對(duì)的以及兩者可能都對(duì)。結(jié)果發(fā)現(xiàn),大學(xué)生更傾向于認(rèn)為兩者可能都對(duì),也就是更多地做出道德相對(duì)主義判斷。這些研究都表明,兒童更加傾向于道德客觀主義,而成人則更加傾向于道德相對(duì)主義,說(shuō)明道德相對(duì)主義傾向會(huì)隨著年齡的增長(zhǎng)而增強(qiáng)。 另一方面,人類并不希望兒童做出道德相對(duì)主義判斷。皮亞杰關(guān)注道德發(fā)展,認(rèn)為9歲至11歲的兒童處于道德發(fā)展的他律階段,在這一階段,兒童表現(xiàn)出某種形式的道德絕對(duì)主義,而到了自律階段后,兒童才有做出道德相對(duì)主義判斷的可能??聽柌裢晟屏怂珊妥月傻膮^(qū)分標(biāo)準(zhǔn),認(rèn)為只用這兩級(jí)水平來(lái)解釋兒童的道德發(fā)展是不全面的,于是他便提出了新的道德發(fā)展階段論,即前習(xí)俗水平(兒童會(huì)先依據(jù)一定的規(guī)范來(lái)做道德判斷,進(jìn)而發(fā)展到依據(jù)事情是否有利來(lái)進(jìn)行道德判斷)、習(xí)俗水平(包含人際協(xié)調(diào)以及維護(hù)權(quán)威或秩序兩個(gè)階段,開始重視社會(huì)規(guī)范的作用)、后習(xí)俗水平(從社會(huì)規(guī)范發(fā)展到更多參考經(jīng)由內(nèi)化而形成的道德信念來(lái)做出道德判斷)??聽柌竦牡赖掳l(fā)展理論已經(jīng)隱含道德相對(duì)主義的概念。在習(xí)俗階段,人們接受的是一般性的、具體的道德原則,受到外界的道德規(guī)范的約束。而發(fā)展到最后一個(gè)階段,當(dāng)?shù)赖乱?guī)則具有自主性時(shí),這樣的道德規(guī)則合適與否完全是由人們自己進(jìn)行判斷的。如果對(duì)這一階段進(jìn)行界定,理應(yīng)對(duì)應(yīng)道德相對(duì)主義,只是柯爾伯格并未明確提出這一概念與研究問題??聽柌竦睦碚撛谀撤N程度上是實(shí)然的,但其實(shí)也是應(yīng)然的,即某種程度上它提示人們,到了某個(gè)階段時(shí)就應(yīng)該有某種道德發(fā)展的可能。按照這樣的邏輯,人類實(shí)際上并不希望兒童會(huì)做出道德判斷。 將針對(duì)兒童的研究結(jié)果放在人工智能的討論中,可以推斷人工智能(現(xiàn)階段)沒有能力做出道德相對(duì)主義判斷,且人類也不希望人工智能做出道德相對(duì)主義判斷。換句話說(shuō),人類在心理上不希望人工智能根據(jù)不同于人類世界的道德規(guī)則來(lái)進(jìn)行道德決策,人類自身同時(shí)也不希望人工智能秉持一種完全不同于人類的獨(dú)特道德規(guī)則做出行為。 ?。ū疚南到逃咳宋纳缈苹鹎嗄觏?xiàng)目“文化混搭與道德相對(duì)主義”(17XJC190001)、教育部人文社科基金青年項(xiàng)目“理性行動(dòng)的認(rèn)知規(guī)范研究”(19YJC720006)階段性成果) ?。ㄗ髡邌挝唬汉苯?jīng)濟(jì)學(xué)院馬克思主義學(xué)院;西安交通大學(xué)哲學(xué)系) 來(lái)源:中國(guó)社會(huì)科學(xué)網(wǎng)-中國(guó)社會(huì)科學(xué)報(bào) 作者:韓婷婷 丁曉軍 |
|
來(lái)自: timtxu > 《心靈、婚戀與思想》