自2022年,特斯拉發(fā)布人形機器人擎天柱以來,人形機器人產(chǎn)業(yè)迅速成為熱門競爭領(lǐng)域。在我國,人形機器人開發(fā)已成為國家新質(zhì)生產(chǎn)力發(fā)展的重要舉措,運動控制、環(huán)境感知、人機交互等人形機器人核心技術(shù)迭代加速。工信部于2023年印發(fā)《人形機器人創(chuàng)新發(fā)展指導意見》,提出到2025年初步建立人形機器人創(chuàng)新體系,實現(xiàn)人形機器人量產(chǎn);到2027年形成安全可靠的人形機器人產(chǎn)業(yè)鏈、供應(yīng)鏈體系??梢灶A(yù)見,人工智能發(fā)展正在向高級形態(tài)躍進,“具身智能”時代即將到來。然而,人形機器人的普及與應(yīng)用,也有可能沖擊已有的社會交往安全與秩序,產(chǎn)生新的權(quán)益侵害風險。作為人形機器人的直接管控者,使用者是風險分配中的關(guān)鍵角色之一,是否以及如何為使用者設(shè)定侵權(quán)責任,尤其是是否以及如何為其設(shè)置注意義務(wù),將對人形機器人的使用秩序與風險分配格局產(chǎn)生形塑作用,為此,有必要就人形機器人使用者注意義務(wù)展開研究。 一、問題的提出 人形機器人是具有類人外形結(jié)構(gòu)特征、運動控制能力、綜合感知能力的智能通用機器人。相比傳統(tǒng)機器人而言,人形機器人由通用大模型賦能,具備語義理解、多模態(tài)感知、自主決策能力,其以盡可能復(fù)刻人類外形和行為,實現(xiàn)應(yīng)用場景從專業(yè)向通用的升級為發(fā)展目標。從仿照動物再到仿照人類自身,人形機器人具備復(fù)刻甚至突破個人部分自然能力的潛能,未來可替代人類完成重復(fù)性、高危性和勞動密集型工作,走進制造、醫(yī)療、教育、陪護等廣泛行業(yè),極大提高經(jīng)濟效率和社會整體福利水平。 人工智能技術(shù)迭代升級引發(fā)社會變革的同時,也會引發(fā)結(jié)構(gòu)性失業(yè)、社會關(guān)系異化、數(shù)字鴻溝等新的問題。具體到私法的治理視角,人形機器人等強人工智能引發(fā)的侵權(quán)風險無疑將是未來的重要課題。一種妥當?shù)娘L險分配思路是,為人工智能提供者、智能設(shè)備制造者等施加更重的侵權(quán)責任,這也是既有研究在人工智能致害責任認定規(guī)則設(shè)計中呈現(xiàn)出的基本共識。相比之下,另一條風險分配路徑——完善人工智能使用者注意義務(wù)規(guī)則,明確使用者侵權(quán)責任認定,則受關(guān)注不多,有待深入分析。本文所述使用者,是使用人形機器人從事特定社會活動的終端用戶。相比人形機器人制造者和人工智能提供者而言,使用者是人形機器人的直接支配者,當使用者使用人形機器人造成他人損害時,使用者是否應(yīng)負注意義務(wù)以及應(yīng)負何種注意義務(wù),直接關(guān)系到使用者侵權(quán)責任的成立與否、受害人損害如何救濟等問題。因此,明確使用者的注意義務(wù),是未來人形機器人致害責任認定必須解決的問題。 學界針對智能機器人致害責任議題已有一定討論。不少學者指出,智能機器人的高度智能化特征,對使用者過錯責任、產(chǎn)品責任規(guī)則適用提出挑戰(zhàn)。使用者責任方面,可能面臨使用者過錯認定規(guī)則不明、對使用者過于嚴苛等問題;產(chǎn)品責任方面,則面臨產(chǎn)品缺陷認定困難、因果關(guān)系不明等問題。為此,應(yīng)對建議主要包括,確立智能機器人主體地位以使其參與責任分配,進一步強化人工智能設(shè)備制造者、人工智能設(shè)計開發(fā)者責任,完善相關(guān)保險制度和賠償基金制度等。相較之下,如何回應(yīng)使用者過錯責任適用的難題,從注意義務(wù)角度出發(fā)重構(gòu)使用者過錯責任的正當性及其認定規(guī)則,則尚無專門探討。 再從使用者注意義務(wù)視角切入。學界就某些特定類型的人工智能使用者之注意義務(wù)有一定探討。如自動駕駛汽車發(fā)生事故致害時,駕駛者的接管義務(wù)研究;診療機器人致害時,醫(yī)療機構(gòu)的合理診療義務(wù)。上述研究主要關(guān)注特定領(lǐng)域使用者的特殊注意義務(wù)(主要是作為義務(wù))。然而,與已應(yīng)用的人工智能不同的是,人形機器人具有通用于全場景的發(fā)展?jié)撃?,其將在廣泛范圍內(nèi)引發(fā)社會交往關(guān)系的變革。因此,構(gòu)建人形機器人使用者注意義務(wù)還需跳出特定場景、特定的利益博弈關(guān)系,探尋一般性規(guī)則。本文即以此為研究目標,試圖探討使用者使用人形機器人時應(yīng)當承擔何種注意義務(wù),并從人形機器人使用者注意義務(wù)的正當性、注意義務(wù)內(nèi)容和成立要件三個方面搭建使用者注意義務(wù)規(guī)則體系的一般框架,以期充實人工智能致害風險分配的侵權(quán)法工具。 為避免混淆,還需就本文所討論的侵權(quán)情形作出如下限定。本文有關(guān)人形機器人使用者注意義務(wù)之論述,皆是以使用者指令人形機器人進行活動,致使他人權(quán)益遭受侵害為具體語境。其中,行為人是人形機器人的使用者,其可直接支配人形機器人實施某種目的性活動,受害人則是在人形機器人依指令執(zhí)行任務(wù)過程中遭受損害的主體。對于與使用行為無關(guān)的損害,如純粹由人形機器人質(zhì)量、系統(tǒng)缺陷引發(fā)的損害,則不在本文討論范疇。 二、人形機器人使用者注意義務(wù)的正當性證成 使用者對人形機器人的管控,存在支配直接性和有限性的悖論。申言之,使用者是人形機器人的直接占有者,可指令人形機器人活動,是使用危險的直接開啟者和受益者,并對該危險具有一定管控力。然而,相比于普通工具而言,使用者對人形機器人的控制力又具有突出的有限性。一方面,人形機器人及其智能系統(tǒng)運行涉及諸多復(fù)雜的技術(shù)機理,并存在難以解釋的技術(shù)黑箱,使用者無法實現(xiàn)對人形機器人的完全管控;另一方面,在有限的控制范圍內(nèi),使用者對人形機器人的支配仍然有賴于人形機器人制造者、人工智能提供者提供必要的輔助?;谶@種支配直接性和有限性之間的矛盾,使用者負擔注意義務(wù)的正當性基礎(chǔ)受到挑戰(zhàn),有必要予以闡明。 人形機器人等具身智能的使用,將會把人類帶入新的生活方式和交往機制中。在這一過程中,社會交往亦將面臨新的風險和挑戰(zhàn)。為此,通過設(shè)置使用者注意義務(wù),可以規(guī)范人形機器人使用行為,維護智能社會的交往安全。 人類社會交往的形式及效率,極大程度上取決于生產(chǎn)技術(shù)水平。技術(shù)變革可以塑造新的社會交往工具和手段,使人類克服時間、空間、語言、文化、自然環(huán)境等限制,進而形成社會交往關(guān)系新形態(tài)。人形機器人的應(yīng)用,將促成人類交往能力的又一次飛升。一方面,由通用大模型賦能的人形機器人,具有遠遠超出人的信息收集和處理能力、數(shù)據(jù)分析能力、創(chuàng)作能力,可幫助使用者突破腦力的限制。另一方面,人形機器人是具有類人化身體結(jié)構(gòu)的高級智能機器,其有能力根據(jù)使用者的指令,廣泛開展社會交往活動,如開車、購物、陪護、教育等。這種類似使用者“分身”的高級智能體,使人類活動可突破空間、體力甚至主體存在的限制。交往能力的解放,將重塑社會交往關(guān)系。于個體而言,人形機器人可增加個人的社會交往場域,豐富社會交往活動。于社會而言,人形機器人以擬人的形式嵌入社會交往,成為社交網(wǎng)絡(luò)中新的節(jié)點,使社會緊密連接于虛實交互、多層次、多領(lǐng)域的普遍交往關(guān)系網(wǎng)中。這有助于人類更有效地追求物質(zhì)利益和精神利益,但同樣也會產(chǎn)生新的社會交往風險。 可以預(yù)見的風險涉及以下方面。首先,使用者使用人形機器人實施侵權(quán)行為的風險增加。強人工智能既可以是增加個人福利的積極助手,也可以是實施侵權(quán)行為的邪惡工具。從目前人工智能應(yīng)用失范的實踐來看,未來亦會產(chǎn)生使用者濫用人形機器人實施侵權(quán)行為的風險,且相比傳統(tǒng)機器人,人形機器人濫用風險有進一步增加之可能,主要原因有兩個方面:一方面,人形機器人具有類人外形,可直接在適于人類活動的環(huán)境中運行,無需另外為其搭建專門的工作環(huán)境,由此,具有“人形”的機器人相比非類人的機器人而言,普及成本更低、應(yīng)用場景更廣。另一方面,人形機器人具有類人的視覺、聽覺能力和思維方式,同時具有超出人類個體的數(shù)據(jù)處理、分析和決策能力,使用者可直接通過自然語言指令機器人,并借助其完成僅憑個人體力、腦力難以實現(xiàn)之目標活動。因此,人形機器人可更廣泛、更深入地服務(wù)于人的社會活動,而于消極層面,這客觀上將增加人形機器人濫用風險。其次,相比無人形機器人輔助的一般主體而言,使用者很可能借助人形機器人的數(shù)據(jù)分析與決策能力,在現(xiàn)實交往中取得對一般主體的支配地位,從而產(chǎn)生歧視、操控等風險。除濫用風險外,人形機器人亦存在失控風險,可能造成他人損害。人形機器人具備自主學習能力,可以成為輔助個人活動的能動工具,但也可能產(chǎn)生難以預(yù)料和解釋的決策結(jié)果,造成他人權(quán)益受損。 設(shè)置人形機器人使用者注意義務(wù),是有效應(yīng)對前述風險的必要法律手段??傮w而言,注意義務(wù)對使用者提出謹慎行為的要求,具有維護智能社會安全秩序的顯著作用。具體而言,其一,使用者注意義務(wù)可以防范人形機器人濫用風險。人形機器人運行以使用者指令為整體指引,使用者是目標行為所涉危險的開啟者和受益者,要求使用者對其發(fā)出的指令內(nèi)容,以及人形機器人執(zhí)行指令的過程盡必要之注意,可以有效規(guī)范使用者的機器人使用行為,防止因指令內(nèi)容和執(zhí)行不當侵害他人權(quán)益。其二,使用者注意義務(wù)亦為防范人形機器人失控風險的必要手段。由于人形機器人處在使用者的直接管控下(包括物理接觸式管控和遠程管控),人形機器人存在失控風險時,使用者仍有采取措施預(yù)防風險發(fā)生的可能,如關(guān)閉系統(tǒng)、暫停運行等。此外,失控原因不具有可解釋性,并不意味著失控本身絕對不可預(yù)見、不可避免,在使用者的注意能力范圍內(nèi),要求使用者對人形機器人工作過程保持合理警覺并盡必要接管義務(wù),是及時阻斷失控風險的有效手段。其三,人形機器人制造者、人工智能提供者責任,并不能替代使用者責任對使用風險的防范功能。制造者、提供者責任可有效預(yù)防人形機器人產(chǎn)品缺陷、算法缺陷引發(fā)的侵權(quán)風險,但對緣于使用者指令和操作的使用風險,使用者基于直接支配地位在風險控制上具有效率優(yōu)勢。因此,相比制造者和提供者責任而言,使用者責任是使用風險的首道防線,完全排除使用者責任,使用行為不受約束,則使用風險的事前預(yù)防機制將被過分削弱。 人形機器人應(yīng)用可能引發(fā)主體性危機和共同體危機。人工智能是人類智能的外化,是人進行社會交往的工具和客體。然而,人形機器人普遍地介入社會活動,則可能產(chǎn)生客體主體化傾向。申言之,人類為獲取物質(zhì)或精神利益,易對人形機器人產(chǎn)生智能依賴,以人形機器人替代自己行為和決策,并受該決策支配。長此以往,人的主體性地位將遭到削弱,一方面,隨著人形機器人越來越頻繁地以人的地位介入社會關(guān)系,人的主體性將被遮蔽,人的社會交往能力將被弱化;另一方面,個體及其所處社會關(guān)系將被人形機器人背后的算法所裹挾,更易遭受算法歧視、算法操縱等技術(shù)風險的侵擾,走向社會不平等與單向度。除此之外,人形機器人等強智能技術(shù)的普及,還可能造成人與人之間的緊密關(guān)聯(lián)逐漸淡化為以機器人為節(jié)點的間接關(guān)聯(lián)。由此,現(xiàn)實交往被虛擬交往替代,個體之間逐漸疏離,個人的共同體認同趨于弱化,傳統(tǒng)倫理規(guī)范和法律規(guī)范的約束力亦會隨之減弱,進而增加違法風險。 面對前述交往異化風險,保持個人的主體性地位,并結(jié)成相互關(guān)照、相互尊重的緊密共同體,才能使智能技術(shù)朝著符合人類根本利益的方向發(fā)展。在這個意義上,要求使用者承擔注意義務(wù)亦具有必要性。一方面,為使用者設(shè)置注意義務(wù),可督促個人維系自身主體地位。使用者注意義務(wù)可強化人形機器人的工具屬性,督促使用者正視人形機器人的風險,強化使用者與人形機器人的“主體—客體”結(jié)構(gòu)。另一方面,注意義務(wù)要求使用者尊重他人利益,可以防止人形機器人遮蔽人與人之間的社會關(guān)聯(lián)??偠灾?,使用者注意義務(wù)既強化了使用者的主體性認同,避免其完全委身于機器;也督促個人在使用人形機器人時,關(guān)照共同體成員的利益。由此,每個使用者既受到注意義務(wù)的限制,也因其他使用者負有注意義務(wù)而獲得保護,從而形成共同應(yīng)對技術(shù)風險、重塑安全秩序的合作局面。 使用者侵權(quán)責任的認定,涉及使用風險在使用者和受害人之間的分配,需要處理好確保人形機器人運行安全,促進人形機器人技術(shù)發(fā)展與應(yīng)用兩項目標之間的關(guān)系。顯然,二者之間存在張力,使用者責任范疇擴張,則受害人利益及其背后的安全價值可得到更強保護;使用者責任范疇限縮,則更有利于人形機器人普及和應(yīng)用。使用者責任的設(shè)置,需使二者達致平衡。然而,如何處理安全和發(fā)展之間的關(guān)系,或者說需要達成何種平衡,則同時受技術(shù)發(fā)展階段、技術(shù)風險程度等多重因素的影響。從縱向?qū)用婵矗诩夹g(shù)成長期,社會政策往往偏重于支持技術(shù)發(fā)展;而進入技術(shù)發(fā)展的成熟期甚至衰退期,技術(shù)的法律規(guī)制則成為重點。從橫向?qū)用婵矗夹g(shù)于不同應(yīng)用領(lǐng)域?qū)⒊尸F(xiàn)不同的風險水平,風險程度高低與風險控制強弱成正比,風險程度越高,相關(guān)技術(shù)應(yīng)用則會受到更嚴格的法律限制。 為回應(yīng)不同的利益衡量需要,使用者侵權(quán)責任需具有充足的制度彈性,而注意義務(wù)規(guī)則可作為使用者侵權(quán)責任范圍的控制器。法律可基于技術(shù)發(fā)展的不同階段、技術(shù)應(yīng)用的不同風險程度等,調(diào)高或調(diào)低使用者的注意標準,為使用者設(shè)置更高或者更低的注意義務(wù),由此限縮或擴張使用者的侵權(quán)責任范疇,以實現(xiàn)不同的利益衡量需求,適時傳導社會政策。顯然,注意標準的動態(tài)調(diào)整并非依個案進行,而是針對技術(shù)發(fā)展的不同階段、不同應(yīng)用領(lǐng)域,確定相應(yīng)的利益衡量目標,進而設(shè)置相應(yīng)注意標準。例如,在人形機器人技術(shù)成長期,成熟的操作經(jīng)驗和操作規(guī)范往往尚未形成,使用者的注意能力應(yīng)維持在較低標準,使用致害風險可主要分配給人形機器人制造者、人工智能提供者,或通過保險制度等保障機制實現(xiàn)損害的社會化分擔;進入技術(shù)應(yīng)用成熟期,使用者應(yīng)掌握基本的操作規(guī)范,具備較高的操作能力,此時應(yīng)適用更高的注意能力標準。此外,在風險程度更高的應(yīng)用領(lǐng)域,使用者客觀上更可能預(yù)見損害發(fā)生的危險,應(yīng)具有更高的注意能力,承擔更高的注意義務(wù)。 有關(guān)正當性的證成,還需回應(yīng)的一個問題是,人形機器人具有自主學習能力,并在數(shù)據(jù)處理、分析和決策方面超出使用者的自然能力,這是否會導致使用者控制人形機器人本身成為偽命題,進而動搖使用者注意義務(wù)的實踐基礎(chǔ)。應(yīng)當認為,人形機器人的高級智能并不會推翻使用者注意義務(wù)的正當性。具體而言,人形機器人對使用者的實質(zhì)意義是,延伸使用者的活動范圍,增強使用者的活動能力。誠然,相比其他工具而言,人形機器人具有更優(yōu)的輔助作用,但所謂學習與決策的“自主”,是指人形機器人的分析與決策摻雜了一定的“能動性”,其不再完全由人決定,但這也遠未達到完全由其自主決定而無需人介入的程度。人形機器人無論如何智能,都難以具備人的獨立性和自主性,其自主學習與決策仍整體遵從使用者的指令,人形機器人何時開啟、何時停止以及從事何種目的性活動受使用者管控。另外,盡管人形機器人基于自主學習作出的決策可能超出使用者的預(yù)見范圍,不具有可解釋性,但這亦不妨礙使用者在其支配能力范圍內(nèi)承擔注意義務(wù),而對于因人形機器人自主決策引起的、超出使用者預(yù)見能力的損害,使用者不負擔注意義務(wù),侵權(quán)責任可由人形機器人制造者、人工智能提供者承擔。 綜上,使用者注意義務(wù)規(guī)則設(shè)置可預(yù)防人形機器人濫用風險和失控風險,并有利于督促使用者在人形機器人使用中保持自身的主體地位,尊重和保護其他共同體成員的利益,負責任地使用人形機器人。除此之外,使用者注意義務(wù)還可作為社會政策的傳導工具,適時調(diào)整使用者侵權(quán)責任的范疇,以契合技術(shù)發(fā)展不同階段、不同應(yīng)用領(lǐng)域的利益衡平目標。 三、人形機器人使用者注意義務(wù)規(guī)則 抽象意義上,所有使用者在使用人形機器人時都應(yīng)盡必要之注意。然而,由于使用者對人形機器人的支配能力受限,仍需從注意義務(wù)的內(nèi)容、成立要件和注意義務(wù)的免除情形三個方面,就使用者注意義務(wù)進行限定,以避免使用者承擔過重的侵權(quán)責任。 使用者使用人形機器人的行為過程可分解為三個階段,一是使用者作出指令,二是機器人接收指令,三是機器人執(zhí)行指令、實施目標行為。在整個過程中,使用者的義務(wù)可分為合理指令義務(wù)、合理操作義務(wù)、合理的過程管理義務(wù),具體分述如下。需說明的是,本文是就使用者注意義務(wù)所作的初步設(shè)想,具體內(nèi)容還留待人形機器人推廣、人機交互規(guī)范和機器人操作規(guī)范細化后,進行補充和修正。 指令合理是指,使用者的指令內(nèi)容應(yīng)當合法、正當、明確,避免人形機器人依照指令進行的活動可能造成他人權(quán)益受到危險或損害。合理指令義務(wù)的功能是,約束使用者的指令行為,使其不得指令人形機器人實施可能侵害他人權(quán)益的行為,防范人形機器人濫用風險。 人形機器人活動受使用者指令內(nèi)容的支配,因此,指令合理的核心要素是指令內(nèi)容合理。具體來看,指令內(nèi)容既包括對目標的指令,亦即使用者指令人形機器人所欲完成的目標活動之內(nèi)容;還包括對人形機器人活動過程的指令,亦即使用者就人形機器人實施目標活動的過程規(guī)則作出指令,如使用者基于目標活動為人形機器人設(shè)置相應(yīng)參數(shù)、選取分析模型、進行價值對齊等。 依指令內(nèi)容的分類,合理指令義務(wù)則涉及確保目標指令合理的義務(wù)、確保過程指令合理的義務(wù)。目標指令合理是指,使用者的目標指令不應(yīng)包含侵害他人權(quán)益的內(nèi)容,若指令的目標內(nèi)容所指向的目標行為通常都會導致他人受到危險或損害,則使用者應(yīng)避免作出相應(yīng)目標指令。過程指令合理是指,使用者對人形機器人運行過程的指令不應(yīng)導致人形機器人侵害他人權(quán)益,若使用者通過參數(shù)設(shè)置、模型設(shè)置為人形機器人指定的活動規(guī)則通常會導致他人受到危險或損害,則使用者有避免作出相應(yīng)過程指令,正確設(shè)置參數(shù)和模型的義務(wù)。 從義務(wù)來源來看,合理指令義務(wù)既包括法定義務(wù),也包括非法定義務(wù)。就法定義務(wù)而言,由于人形機器人是使用者的活動工具,指令內(nèi)容即為使用者目標行為的內(nèi)容,因此法律對使用者施加的行為規(guī)范,可直接作為法定的合理指令義務(wù)之依據(jù)。例如,我國民法典第1024條規(guī)定,任何人不得以侮辱、誹謗方式侵害他人名譽權(quán);相應(yīng)地,行為人不得指令人形機器人制作并傳播侮辱、誹謗他人的圖片、文字、視頻等。除此之外,人形機器人運行可能包含深度合成、生成式人工智能等技術(shù)應(yīng)用,我國立法在深度合成服務(wù)、生成式人工智能領(lǐng)域?qū)κ褂谜呤┘拥牧x務(wù),亦應(yīng)適用于人形機器人使用者,約束其指令行為。如《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》規(guī)定使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息,不得采用技術(shù)手段刪除、篡改、隱匿深度合成標識。人形機器人使用者即應(yīng)盡前述義務(wù),不得發(fā)出前述指令。此外,人形機器人具有信息處理能力,使用者在使用人形機器人時可能處于信息處理者地位,須遵循個人信息保護法,確保個人信息處理取得個人同意或者滿足其他合法事由,并履行安全保障義務(wù)以及其他個人信息處理者應(yīng)盡之義務(wù)。需說明的是,使用者指令人形機器人處理個人信息時,使用者與人工智能提供者之間并不構(gòu)成委托關(guān)系,實際進行信息處理操作的人工智能提供者不能主張其為個人信息處理受托人,僅承擔協(xié)助處理義務(wù)和較低水平的信息安全保障義務(wù)。原因在于,一方面使用者和人工智能提供者之間并未達成委托合同;另一方面,在處理過程中,使用者僅發(fā)出目標指令,影響信息處理目標,而如何處理個人信息、處理哪些個人信息仍由人工智能提供者主導,二者應(yīng)同為個人信息處理者,均須承擔處理者義務(wù)。 未來,隨著人形機器人應(yīng)用實踐發(fā)展,立法還須完善人機交互規(guī)范,細化使用者的合理指令義務(wù)。此外,除法定義務(wù),使用者在發(fā)出指令時還可能負擔非法定注意義務(wù)。此類義務(wù)并非由法律規(guī)范直接施加給使用者,有待法官在案件中依注意義務(wù)的成立要件作具體認定。 合理操作義務(wù),是指使用者的操作行為應(yīng)符合操作規(guī)范,避免人形機器人在執(zhí)行指令過程中發(fā)生不合理的物理故障、系統(tǒng)故障、信息安全故障或者其他可能造成他人損害的故障。與合理指令義務(wù)不同,合理操作義務(wù)要求使用者謹慎操作機器人,前者關(guān)注“用人形機器人做什么”,后者關(guān)注“怎么用人形機器人”。 人形機器人要成功模擬人類自主活動,需要運動規(guī)劃與控制(包括控制位置、姿態(tài)、速度、軌跡、力量等)、計算機感知(包括視覺、聽覺、觸覺以及自身狀態(tài)測量)、自主學習和決策(包括語義理解、語音合成等)以及信息處理、算法分析等技術(shù)協(xié)同工作。人形機器人安全運行有賴于人形機器人制造者、人工智能提供者執(zhí)行安全標準、落實安全測試、履行安全保障義務(wù),但使用者的不當操作也可能誘發(fā)安全隱患。為此,使用者作為直接操作者,應(yīng)當承擔合理操作義務(wù)。換言之,若實施或者不實施某種操作行為通常會導致人形機器人故障,進而使他人權(quán)益遭受危險或損害,則使用者對應(yīng)地負有不實施或者實施某種操作的注意義務(wù)。 參考我國現(xiàn)有機器人安全標準,未來人形機器人安全運行至少需確保機械安全、電氣安全、控制系統(tǒng)安全、信息安全。為此,使用者合理操作義務(wù)可從以下四個方面設(shè)置:一是,機械安全,主要是確保人形機器人肢體結(jié)構(gòu)的穩(wěn)定、完整。具體要求包括,使用者不應(yīng)破壞人形機器人肢體結(jié)構(gòu)(如拆除主體結(jié)構(gòu)),不應(yīng)破壞人形機器人防護措施(如拆除防護裝置、暴露機器人肢體尖銳部位)。二是,電氣安全,主要是使用者應(yīng)確保人形機器人運行的電氣環(huán)境安全,不應(yīng)破壞人形機器人的電氣防護裝置。三是,控制系統(tǒng)安全,主要是確保人形機器人運動控制、力控制等的安全。由于控制系統(tǒng)安全通常由機器人肢體質(zhì)量和支撐性技術(shù)的可靠程度決定,因此該領(lǐng)域所涉的安全保障義務(wù)應(yīng)主要由人形機器人制造者承擔。四是,信息安全,主要涉及個人信息安全和數(shù)據(jù)安全。數(shù)據(jù)處理是人形機器人實現(xiàn)綜合感知、完成自主學習與決策的必要支撐,在執(zhí)行指令過程中,人形機器人很可能收集并儲存了大量個人信息和數(shù)據(jù),此時,使用者應(yīng)履行個人信息安全與數(shù)據(jù)安全保護義務(wù),不得泄露個人信息和存在安全風險的數(shù)據(jù)。前述義務(wù)主要為不作為義務(wù),即使用者不應(yīng)實施明顯破壞機器人運行安全的操作行為。除此之外,當人形機器人存在危及運行安全的重大缺陷時,使用者還具有停止使用、及時檢修的義務(wù)。 合理的過程管理義務(wù)是指,使用者在人形機器人執(zhí)行指令過程中,對人形機器人的運行狀態(tài)仍須保持警覺,并在必要時予以接管的義務(wù)。合理的過程管理義務(wù)是一種持續(xù)性義務(wù),且主要為作為義務(wù),其要求使用者在人形機器人運行過程中,維持對人形機器人的基本控制力,以便在必要時采取措施防止損害發(fā)生。就過程管理義務(wù)的內(nèi)容而言,具體包括過程監(jiān)控義務(wù)和必要接管義務(wù)。過程監(jiān)控義務(wù)要求使用者持續(xù)觀察人形機器人運行狀況,監(jiān)控程度以能夠及時接收警示信息為最低限度。必要接管義務(wù)則是指,使用者在必要時采取緊急措施,使人形機器人停止運行,或者恢復(fù)到安全狀態(tài)。 由于合理的過程管理義務(wù)對使用者提出了更高的注意要求,有必要就其正當性再作補充。首先,合理過程管理義務(wù)是應(yīng)對人形機器人失控風險的重要手段。如前所述,在人形機器人失控情形下,相比人形機器人制造者和人工智能提供者,使用者與風險最為鄰近,在條件具備時可快速實現(xiàn)對人形機器人的控制,避免損害發(fā)生。此時,合理的過程管理義務(wù)可與制造者、提供者之義務(wù)形成規(guī)范上的合力,強化侵權(quán)責任制度在失控風險防范方面的積極作用。其次,合理的過程管理義務(wù)并非要求使用者對人形機器人實現(xiàn)全過程的深度監(jiān)管,其需滿足義務(wù)必要性、損害可預(yù)見性和損害可回避性要件,只有當人形機器人即將或者已經(jīng)失控,人形機器人發(fā)出警示并提供接管手段,不及時接管即可能導致?lián)p害發(fā)生時,使用者才承擔合理接管義務(wù),須在支配能力范圍內(nèi)實施必要措施。誠然,合理的過程管理義務(wù)將減損使用者的使用便利,但減損程度并不足以推翻合理管理義務(wù)的正當性,人形機器人所帶來的個人便利、社會紅利遠遠大于過程管理義務(wù)所生負擔,后者不足以從根本上抑制人形機器人的使用。 前文僅就使用者注意義務(wù)的內(nèi)容作類型化梳理,尚未涉及注意義務(wù)的成立問題。應(yīng)當認為,并非在任何損害發(fā)生情形下,使用者一概承擔注意義務(wù)。在侵權(quán)責任認定中,前述義務(wù)只有經(jīng)注意義務(wù)的成立要件檢驗,才可能觸發(fā)使用者侵權(quán)責任。使用者注意義務(wù)的成立,則須滿足必要性、可預(yù)見性、可避免性三個要件。 必要性是指,使用者所負注意義務(wù)必須是可以避免危險或損害發(fā)生的手段,即通常意義上,使用者盡到該注意義務(wù)可以避免危險或者損害發(fā)生。反之,假設(shè)使用者即使履行該義務(wù),也不能避免危險或損害發(fā)生,則相關(guān)義務(wù)并不構(gòu)成使用者的注意義務(wù)。必要性要件將不具有損害結(jié)果回避功能的義務(wù)排除在注意義務(wù)范疇之外,防止使用者侵權(quán)責任范疇過寬。例如,使用者雖未能定期檢修人形機器人,但人形機器人使用致害乃黑客攻擊所致,即使使用者定期檢修亦不能避免損害發(fā)生,由于定期檢修義務(wù)未能滿足必要性要件,并不構(gòu)成使用者的注意義務(wù),使用者違反定期檢修義務(wù)不具有侵權(quán)法上的違法性,亦不能認定使用者有過錯。 可預(yù)見性是指,使用者可預(yù)見到不履行義務(wù)將發(fā)生危險或損害??深A(yù)見性對于注意義務(wù)成立的判定意義表現(xiàn)為,使用者應(yīng)當履行符合其預(yù)見能力的注意義務(wù),但無需履行超出其預(yù)見能力的注意義務(wù)。該要件的認定需從以下兩個方面進行考慮。 其一,預(yù)見能力基準??深A(yù)見性的判定并非以某個具體使用者的預(yù)見能力為基準,而是以理性使用者的預(yù)見能力為客觀基準。從這個意義上說,注意義務(wù)是一種應(yīng)然意義上的預(yù)見義務(wù),其要求使用者具備理性使用者所具備的預(yù)見能力,并履行與該能力相匹配的注意義務(wù);使用者對自身預(yù)見能力的不當降低或者喪失負有責任,亦對未能盡相應(yīng)義務(wù)負有責任。其中,理性使用者的預(yù)見能力包含三個層面。一是具備一般的知識與經(jīng)驗,理性使用者首先是一般理性人。二是具備人形機器人操作所需的一般知識與技巧。隨著人形機器人技術(shù)發(fā)展、應(yīng)用普及、操作規(guī)范完善,此一能力標準亦有提高之趨勢。三是具有實施目標行為所要求的知識和能力。若使用者指令人形機器人從事專業(yè)活動(如診療活動),使用者亦需具備對應(yīng)領(lǐng)域所必要的專業(yè)知識、經(jīng)驗和能力??梢?,相比日常生活中的一般理性人而言,理性使用者的注意能力標準更高。 其二,預(yù)見可能性的考察,即判定使用者“是否可能預(yù)見”損害或危險發(fā)生,需綜合考量以下因素。一是,機器人活動的風險程度。此一要素是對抽象風險的考察,即對機器人活動(包括機器人自身運行和目標行為)致害的風險程度進行一般性評估,不涉及對具體危險的預(yù)見。抽象風險主要受機器人作業(yè)環(huán)境、目標行為風險程度的影響。通常,機器人活動的抽象風險程度越高,預(yù)見可能性越高,使用者亦須負擔更高程度的注意義務(wù)。例如,機器人作業(yè)環(huán)境復(fù)雜(如天氣惡劣、高溫高壓),或目標行為的風險程度較高時(如駕駛汽車、從事診療活動等),則使用者須負注意程度更高的合理操作義務(wù)、過程管理義務(wù)。二是,損害發(fā)生之蓋然性程度。此一要素意在考察具體危險在多大程度上可以轉(zhuǎn)化為損害。通常而言,危險越具體,損害發(fā)生的蓋然性程度越高,使用者越可能預(yù)見損害發(fā)生。例如,當人形機器人避障功能失靈、發(fā)出警示,且即將倒向受害人時,此種危險已經(jīng)足夠具體,應(yīng)認定為滿足可預(yù)見性標準。 就不作為義務(wù)而言,使用者可預(yù)見損害或危險發(fā)生時,不作為(即停止行為)即可避免損害發(fā)生。就作為義務(wù)而言,使用者為避免損害發(fā)生需要采取積極的預(yù)防措施,此時,注意義務(wù)的成立還涉及可避免性的考察。可避免性是指避免損害發(fā)生的可能性,其關(guān)注的是使用者是否有能力實施避免損害發(fā)生所需的預(yù)防措施??杀苊庑詫τ谧⒁饬x務(wù)成立的判定意義表現(xiàn)為,法律要求使用者在避免能力范圍內(nèi)采取預(yù)防措施,但若預(yù)防措施超出避免能力,即使使用者可以預(yù)見損害,也不負結(jié)果回避之注意義務(wù)。 可避免性認定涉及避免能力基準和避免可能性的判定。在避免能力基準上,同預(yù)見能力基準相似,使用者需具備理性使用者所具有的采取合理預(yù)防措施的能力,具體包括從事日常社會交往所需的、使用機器人所需的以及從事目標行為所需的避免損害發(fā)生之能力。避免可能性的判定,本質(zhì)上是考察使用者是否有能力實施合理預(yù)防措施,即理性使用者所具有的結(jié)果回避能力是否足以預(yù)防即將發(fā)生的損害,需結(jié)合以下因素綜合認定。一是,機器人活動的風險程度。若機器人活動的風險程度更高,則使用者除面臨更高的預(yù)見義務(wù)外,也需承擔更高的結(jié)果回避義務(wù)。概言之,機器人活動越危險,使用者注意義務(wù)越重。二是,受損利益的重要程度。對于重要利益,法律往往會設(shè)置更高的結(jié)果回避義務(wù)。因此,若人形機器人可能損害他人的重要權(quán)益(如物質(zhì)性人格權(quán)),使用者則應(yīng)具備更高的結(jié)果回避能力。三是,結(jié)果回避義務(wù)對使用者造成的利益減損程度。結(jié)果回避義務(wù)主要是采取措施避免損害的作為義務(wù),其要求使用者負擔一定的預(yù)防成本,因此結(jié)果回避義務(wù)的設(shè)置還需考量成本—效益因素,原則上,不應(yīng)要求使用者承擔成本過高的結(jié)果回避義務(wù)。 如前所述,由于存在技術(shù)壁壘,使用者普遍且客觀地處于信息不完全狀態(tài),不具有支配人形機器人所需的全部信息,其對人形機器人的支配和管理往往以人形機器人制造者、人工智能提供者進行操作提示與提供操作手段為前提。申言之,使用者的支配力受制于制造者、提供者提供的輔助信息與輔助手段?;诖?,應(yīng)將制造者、提供者未履行必要的輔助性義務(wù),作為使用者相應(yīng)注意義務(wù)的排除情形。若制造者、提供者未能盡到輔助性義務(wù),則應(yīng)免除使用者的注意義務(wù)。其中,輔助性義務(wù)是指輔助使用者及時避免損害發(fā)生的義務(wù)。依輔助內(nèi)容之不同,輔助性義務(wù)又可分為:提供輔助信息義務(wù)、提供輔助手段義務(wù)和輔助更新義務(wù)。提供輔助信息,即人形機器人制造者、人工智能提供者應(yīng)充分告知使用者正確的操作規(guī)范,并在使用者指令、操作明顯不當,或者損害即將發(fā)生時發(fā)出明示性警示。提供輔助手段,即制造者、提供者應(yīng)為使用者提供必要的避免損害發(fā)生的手段和方法(如設(shè)置急停裝置)。輔助更新義務(wù)是指,制造者、提供者應(yīng)及時提示使用者更新人形機器人系統(tǒng)和功能,并提供相應(yīng)的更新操作指示和路徑。制造者、提供者未能履行必要輔助義務(wù)的,則免除使用者注意義務(wù)。免除情形的適用則需滿足兩個要件。一是,使用者避免損害發(fā)生,以制造者、提供者提供輔助信息、輔助手段,提示并指引系統(tǒng)更新、功能更新為必要;二是,制造者、提供者未盡到及時告知和警示義務(wù),或未盡到提供預(yù)防手段、提示并引導系統(tǒng)、功能更新等輔助性義務(wù)。一旦免除事由成立,則應(yīng)認定使用者不負有注意義務(wù),亦無需承擔侵權(quán)責任。 以人形機器人制造者和人工智能提供者未履行必要輔助義務(wù),作為使用者注意義務(wù)的免除事由,具有妥當性。其一,使用者對人形機器人的支配力有限,注意義務(wù)程度理應(yīng)以其支配能力為基本限度,以避免對使用者施加嚴格責任。其二,制造者、提供者掌握人形機器人運行所需的核心技術(shù),有能力為使用者支配和管控人形機器人提供技術(shù)和設(shè)備支持;且使用者亦有合理理由期待并信賴制造者、提供者周全考慮人形機器人使用中的潛在風險,并輔助其預(yù)防和控制風險。其三,必要輔助義務(wù)實際上要求制造者、提供者對使用者的不合理指令和不合理操作及其可能引發(fā)的損害負擔一定的預(yù)見與避免義務(wù),這有助于引導制造者、提供者重視風險預(yù)測和風險警示,完善風險防范方案,進而達到降低人形機器人使用風險,提升使用者操作水平的效果。需說明的是,該免除事由不可倒推適用,即不能依據(jù)制造者、提供者已經(jīng)履行必要輔助義務(wù),推定使用者未盡到注意義務(wù),使用者是否存在注意義務(wù),仍需結(jié)合前述標準作出判定。 ![]() 圖1 使用者注意義務(wù)的認定過程 |
|
來自: 陽光正能 > 《創(chuàng)新》