The Human Black-Box: The Illusionof Understanding Human Better Than Algorithmic Decision-Making 在茫茫的大數(shù)據(jù)海洋里,你發(fā)現(xiàn)了這篇推送。 ——這篇推送是來自微信的“個性推薦”嗎? 在互聯(lián)網(wǎng)世界的每個角落,在那些永遠拉不到底的文字流、圖像流音頻流、視頻流的背后,“個性推薦”的算法永不歇止、無處不在。 你有沒有好奇過,“個性推薦”的算法如何找到你的偏好? 你有沒有懷疑過,“個性推薦”是否準確?那些被“精準投送”的內容,真的是我們想看到的嗎?如果有關領域的人類專家和大數(shù)據(jù)算法分別為你尋找一篇“今日最匹配的推送”,你更了解誰的選擇方式?你更愿意相信誰的選擇方式? 你有沒有思考過,“個性推薦”的算法是那樣模糊的、說不清道不明的存在,我們可能一生都要稀里糊涂地活在這種算法里,并且成為它所學習的數(shù)據(jù)的一部分... “我只是“以為自己很懂人類” 社交媒體上常見的“個性推薦”只是算法決策的一個例子。在當代社會生活中,算法決策已經(jīng)被廣泛應用于諸多領域,甚至成為了某些重要決策的關鍵參考依據(jù)(例如招聘、疾病診斷、司法判決...)。 與此同時,算法的迅速發(fā)展也帶來了相應的的問題。算法具有“黑箱”性質,其決策的原理難以得到足夠清晰和充分的解釋,因而不被許多人所理解。對此,各國政府以及相關領域的專家正在進行持久的討論:是否有必要向用戶公開解釋算法的工作原理?對于算法決策的過程,人們是否有保持知情同意的權利? “算法”決策的透明度得到了廣泛的探討,而我們卻忽略了其他決策者——人類的存在。我們對人類決策透明度的要求似乎遠遠沒有達到對算法的高度。例如,我們通常不會要求醫(yī)生對作出診斷的過程進行外顯的解釋,或者在企業(yè)招聘時要求面試官明確地說出自己作出錄用決定的心路歷程...是什么讓人們覺得應該“區(qū)別對待”算法和人類呢? 2022年2月發(fā)表在《實驗心理學:總論》(Journal of Experimental Psychology: General)上的一項研究指出了這一現(xiàn)象。研究者解釋道,這種“區(qū)別對待”可能是出于一種解釋性深度錯覺 (the illusion of explanatory depth, IOED)——誤以為自己已經(jīng)理解了事物的原理,“但實際上根本沒懂”。 研究者指出,對于人腦還是算法的決策過程,都有可能存在IOED效應。當決策者是人類而不是算法時,人們對決策過程的IOED更強,這是由于投射的作用。 “投射 帶來的錯覺 廣泛的研究證據(jù)表明,我們總是不知不覺地陷入一種“自服偏差”,把自己的想法投射給他人,認為他人和自己的想法是一致的。事實上,“其他人類的大腦“對我們來說也是不可洞察的黑箱,他人未必和我們持有一致的想法。 人們更傾向于把自己對決策的理解投射到其他人類而非算法上。研究者認為,原因之一就是投射者(“我”)和投射目標(決策者)的相似性。由于我們和專家有著共同的“人類”身份,而算法則是相對陌生的存在,因而人們更容易把自己的想法投射給和自己更加相似的專家,從而形成了“懂人類>懂算法”的錯覺。 | 研究設計 研究1A-C的目的是在三個算法決策的應用領域當中,驗證是否普遍存在“懂人類>懂算法”的錯覺;研究2-4則探索投射是否是造成這種錯覺的原因;進一步地,研究4探討了“懂人類>懂算法”的錯覺對于決策信任度的影響。 01 “懂人類>懂算法”的錯覺存在嗎? 研究1(A-C)采用被試間設計,參與者接受2(人類決策組/算法決策組)x2(解釋組/不解釋組)隨機分配,閱讀對應的決策情境。實驗1A、1B、1C的情境分別是決策者(人類專家/算法)對“庭審被告再犯風險、視頻面試選擇求職者、基于MRI圖像診斷疾病”的決策評估。 讓參與者對決策過程做出解釋,能夠讓他們更好地意識到自己對決策的理解不如自己所想的那樣充分,因為他們有機會發(fā)現(xiàn)自己仍然存在解釋不清的地方。解釋組的參與者被要求先用文字來解釋決策者(人類專家/算法)做出決策的過程,再為對人類專家/算法決策的理解程度打分;不解釋組的參與者則先為對決策的理解程度打分,再進行解釋,故不解釋組的理解分數(shù)不受到解釋的影響。 ![]() 圖1 研究1A-C的ANOVA結果均表明,解釋 x 決策者 交互效應顯著。(誤差棒代表1個標準差)。 在研究1A-C的三種決策情境當中,都發(fā)現(xiàn)了預測的“懂人類>懂算法”的錯覺。人們認為自己對人類決策的理解程度大于算法決策,而二者理解分數(shù)的差異在解釋組更小,在不解釋組更大。解釋的操縱減弱了參與者“懂人類>懂算法”的評價,這說明這種評價差異是一種錯覺。 02 投射使人產(chǎn)生錯覺嗎? 研究2操縱參與者的自我理解,進而驗證投射是否在這一錯覺中起到作用。 參與者接受2(人類決策組/算法決策組)x2(解釋前/解釋后)x2(高自我理解組/低自我理解組)隨機分配,其中解釋前/解釋后是被試內設計,其余為被試間設計。決策情境同研究1A——由人類法官/算法評估被告的再犯風險。 1 自我理解操縱 高自我理解組的參與者被告知“評價被告再犯的風險對于普通人來說是件非常容易的事情”;相反,低自我理解組則被告知“評價被告再犯的風險對于普通人來說是件非常困難的事情”。隨后,參與者對自我理解(“我有多理解自己做出決策的過程”)進行評分。 2 解釋前 參與者第一次對法官/算法決策的理解程度打分。根據(jù)投射假設,上述兩種高低水平的自我理解應該被更多地投射到人類決策者,而非算法上;也就是說,人們對法官決策的理解比算法決策更接近于被操縱的自我理解水平。 3 解釋后 所有參與者都被要求文字解釋人類/算法的決策過程,解釋結束后第二次對人類/算法決策的理解程度打分。 ![]() 圖2 研究2的ANOVA結果表明,解釋 x 決策者 x 自我理解 交互效應顯著。(誤差棒代表1個標準差) 差異檢驗的結果驗證了研究假設,高自我理解組比低自我理解組表現(xiàn)出更強的“懂人類>懂算法”的錯覺。 進一步分析表明,參與者自我理解與他們解釋前對人類決策的理解程度呈正相關(r=.760),高于與對算法決策的理解程度的正相關(r=.478)。這進一步驗證了投射在錯覺形成中的作用。 03 基于相似性的投射錯覺 研究3通過操縱參與者與目標的相似度,進一步探索投射的作用方式。如果人們被告知自己和專家并不相像,這可能會減少自我投射的影響,進而減弱“懂人類>懂算法”的錯覺。 參與者接受2(人類決策組/算法決策組)x2(解釋前/解釋后)x2(控制組/不相似組)隨機分配,其中解釋前/解釋后是被試內設計,其余為被試間設計。決策情境同研究1C——由人類放射學家/算法根據(jù)MRI圖像診斷疾病。 不相似組被要求想象自己和人類放射學家/算法的差異,隨后對放射學家/算法決策的理解程度打分;控制組直接對放射學家/算法決策的理解程度打分。 ![]() 圖3 研究3的ANOVA結果表明,解釋 x 決策者 x 相似性 交互效應顯著。(誤差棒代表1個標準差) 與不相似組相比,控制組表現(xiàn)出“懂人類>懂算法”的錯覺更強。這證實了人們所感知的自己與人類決策者之間的相似性對于錯覺形成的作用。 研究4作為補充實驗,證實了“懂人類>懂算法”這一錯覺的后效——這一錯覺使人們更信任人類而非算法所做的決策。 “那些 研究者想說的 人們之所以不愿意相信算法,可能不僅僅因為人們不了解算法的工作機制,而且因為人們對于其他人類的工作機制產(chǎn)生了理解的錯覺。這種“理解人類”的錯覺未必是全然正面的,也有可能帶著對人類的刻板印象或偏見,比如人們可能會認為“人類比機器更有可能做出任人唯親的選擇”。 研究者指出,該研究的探索范圍僅僅局限在參與者對決策過程缺乏已知信息的情況下。盡管在大多數(shù)時候,人們的確對這些決策應用領域所知甚少;但更多關于決策者的客觀信息可能會對“懂人類>懂算法”的錯覺產(chǎn)生不同的影響,進而影響公眾對于算法決策的接受程度。 編譯|家養(yǎng)蛋糕 參考文獻 Bonezzi, Ostinelli, M., & Melzner, J. (2022). The human black-box: The illusion of understanding human better than algorithmic decision-making. Journal of Experimental Psychology. General. https:///10.1037/xge0001181 Young, E. (2022, March 23). Decisions made by human experts can be as inscrutable as those made by algorithms — but we don’t realise it. BPS Research Digest. https://digest./2022/03/23/decisions-made-by-human-experts-can-be-as-inscrutable-as-those-made-by-algorithms-but-we-dont-realise-it/ |
|