【導(dǎo)讀】近幾年,隨著人工智能的迅速發(fā)展,人工智能對各行各業(yè)也產(chǎn)生了深遠的影響。圍繞人工智能建立的系統(tǒng)已經(jīng)對醫(yī)療、交通、刑事司法、金融風(fēng)險管理和社會的許多其他領(lǐng)域產(chǎn)生了巨大的價值。然而,人工智能系統(tǒng)仍然具有很多問題,為了保證人工智能系統(tǒng)的有效性和公平性,需要我們對人工智能具有深刻的理解和控制能力。所以,今天專知小編給大家?guī)淼氖?strong>Google可解釋人工智能白皮書《AI Explainability Whitepaper》,總共27頁pdf,主要介紹谷歌的AI平臺上的AI的可解釋性。 機器學(xué)習(xí)發(fā)展 人工智能的迅速發(fā)展導(dǎo)致現(xiàn)在我們現(xiàn)在所研究和使用的AI模型越來越復(fù)雜化,從手工規(guī)則和啟發(fā)法到線性模型和決策樹再到集成和深度模型,最后再到最近的元學(xué)習(xí)模型。 這些變化已經(jīng)導(dǎo)致了多個維度上規(guī)范的變化:
然而,這些更復(fù)雜更強大的模型也變得越來越不透明,再加上這些模型基本上仍然是圍繞相關(guān)性和關(guān)聯(lián)建立的,這導(dǎo)致了以下幾個挑戰(zhàn)和問題:
AI方法有:
根據(jù)應(yīng)用不同,我們有明確的倫理、法律和商業(yè)理由來確保我們能夠解釋人工智能算法和模型如何工作。不幸的是,普通人可以解釋的簡單人工智能方法缺乏優(yōu)化人工智能決策的準確性。許多提供最佳精度的方法,如ANN(人工神經(jīng)網(wǎng)絡(luò)),都是復(fù)雜的模型,其設(shè)計并不是為了便于解釋。 如圖所示,人工智能方法的準確性和可解釋性之間存在著一種相反的關(guān)系。兩者之間的負相關(guān)關(guān)系如下: 解釋性越大,準確性越低,反之亦然。 一些不太精確的模型仍然很受歡迎,因為它們具有可模擬性(因此人類可以重復(fù)它們)、完全可解釋的計算過程(算法透明性)以及模型的每個部分都有一個直觀的解釋(可分解性)。 隨著深度學(xué)習(xí)和強化學(xué)習(xí)的普及,對復(fù)雜神經(jīng)網(wǎng)絡(luò)的解釋需求激增,推動了XAI工具的發(fā)展。最終目標: 實現(xiàn)負責(zé)任的、可追溯的、可理解的AIs。 可解釋人工智能 XAI 這些挑戰(zhàn)突出了對人工智能的可解釋性的需求,以使人們可控的發(fā)展人工智能。 圍繞人工智能建立的系統(tǒng)將影響并在許多情況下重新定義醫(yī)療干預(yù)、自動交通、刑事司法、金融風(fēng)險管理和社會的許多其他領(lǐng)域。然而,考慮到上一節(jié)所強調(diào)的挑戰(zhàn),這些人工智能系統(tǒng)的有效性和公平性將取決于我們理解、解釋和控制它們的能力。 自從幾十年前專家系統(tǒng)出現(xiàn)以來,XAI(可解釋的AI)領(lǐng)域已經(jīng)復(fù)蘇。本文對一種嚴謹?shù)目茖W(xué)解釋的機器學(xué)習(xí),Doshi-Velez和Kim定義為“解釋性或呈現(xiàn)在人類可以理解的術(shù)語的能力“利用韋氏字典的定義“解釋”,它適應(yīng)人類和智能代理之間的交互。 谷歌的人工智能可解釋白皮書(AI Explainability Whitepaper)是谷歌云的人工智能解釋產(chǎn)品的技術(shù)參考。它的目標用戶是負責(zé)設(shè)計和交付ML模型的模型開發(fā)人員和數(shù)據(jù)科學(xué)家。谷歌云的可解釋產(chǎn)品的目標是讓他們利用對AI解釋性來簡化模型開發(fā),并解釋模型的行為。 白皮書的目錄:
參考鏈接: https://cloud.google.com/ml-engine/docs/ai-explanations/overview |
|