日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

公元2019年,你對AI的信任有幾分?

 昵稱535749 2019-12-13

騰云 · 17小時前

構(gòu)建人類和AI的信任,這項工作必須提上日程了。

編者按:本文來自微信公眾號“騰云”(ID:tenyun700),36氪經(jīng)授權(quán)發(fā)布。

作者試圖讓你開始思考一個比你想象中更為緊迫的問題:如何構(gòu)建人類和AI之間的信任?作者從最近上市的三本新書中找到了一些線索。

Peter,騰云特約作者

著名經(jīng)濟學教授Gary Smith在新書《AI錯覺》(The AI delusion)中指出了一種人類在本時代可能有的“錯覺”。

他說,人們常常因為AI在某些具體任務上超越了人類的表現(xiàn),就忽視了當前AI本質(zhì)上仍然無法像人類一樣思考和推理的事實,于是產(chǎn)生了AI將超越并取代人類智能的“錯覺”。

但事實上,機器的智能和人的智能并不一樣(并非同類),它們無法相互取代。如同本世紀初的“.net泡沫”,最近這幾年的“AI熱”中也彌漫著不切實際的預期。作者指出,隨著AI應用的深入,泡沫終將破滅。

這種警醒的背后,反映出的是人類在面對AI時如何構(gòu)建信任的問題。當AI的應用場景從2C走向2B時,這個問題將變得更加緊迫。為什么?

因為從2C到2B的轉(zhuǎn)變,意味著AI的應用要離開內(nèi)容推薦、語言識別等用戶對錯誤容忍度較高的領(lǐng)域,走入自動駕駛、醫(yī)療診斷、金融決策等涉及人類切身利益的“深水區(qū)”中。這意味著,即使人們知道AI的效能比人類專家的更好,但人們還是會繼續(xù)對AI的應用保持謹慎和懷疑。

于是,如何打消人類對AI的顧慮成為一個重要的問題,AI不僅需要證明“自己”能提升人類的效能,還需要讓相關(guān)方相信:“我”是值得信任的。

為此,學界和產(chǎn)業(yè)界都需要采取全新的方法論,而其中關(guān)鍵的一環(huán),在于對因果關(guān)系的重視。

公元2019年,你對AI的信任有幾分?

Gary Smith  / 著

《The AI Delusion》解釋了為什么我們不該為“AI是無懈可擊的”想法感到恐懼。

01、什么樣的AI是可信任的?

關(guān)于AI的倫理問題,國內(nèi)外都有許多討論,最有名的是英國大數(shù)據(jù)研究中心Alan Turing Institute提出的FAST原則,可以看成是“可信任的AI”需要滿足的基本條件。

F 代表Fairness(公平)。具體可以分為:

  • 數(shù)據(jù)公平,即AI應該無差別地使用數(shù)據(jù),不能區(qū)別對待;

  • 設計公平,即算法的開發(fā)目的不應該是帶有歧視性的;

  • 結(jié)果公平,指算法做出的決策本身是公平的;

  • 實現(xiàn)公平,指算法在測試和實現(xiàn)過程中,要使參與測試的人員感到公平,而不是過度依賴算法。

A 代表Accountablity(可問責性),指如果在模型完成前后出現(xiàn)問題,可以追溯到模型中的具體某一部分。

S 代表Safty(安全),指AI在任何情況下,特別是在面對訓練數(shù)據(jù)集中沒有出現(xiàn)的數(shù)據(jù),以及攻擊性數(shù)據(jù)時,不會對人類的安全造成傷害。為了確保模型的安全,可以采用超額完成準確度要求的方式,從而確保AI在極端情況下的魯棒性。

*魯棒是Robust的音譯,也就是健壯和強壯的意思。它也是在異常和危險情況下系統(tǒng)生存的能力。例如在建筑工程中,如果一座橋的計劃載重是50噸,那么建造完成后橋能在載重200噸時不崩潰,這就是這座橋的魯棒性。編者注。

T 指的Transparency(透明),指模型的決策過程不應該是一個對人類來說無法解釋的黑箱子,模型要以人類便于理解的方式,給出決策所基于的證據(jù)。

只有FAST原則還不足以構(gòu)建“可信任的AI”。

為了確保安全,AI還需要具有自適應能力——以便在與訓練數(shù)據(jù)不同,甚至系統(tǒng)開發(fā)者預料之外的環(huán)境下可以正常運行。

AI還應當能夠“自檢”——判斷系統(tǒng)當前的運行狀態(tài)是否符合預期。這種能力在AI面臨惡意攻擊時顯得尤為重要。

此外,可信任的AI應該具備個性化的特質(zhì)——AI和人的交互方式會影響人類的信任度,讓不同性格特征的用戶都感到AI是值得信賴的,這也很重要。

總結(jié)下來,滿足透明、公平、魯棒性、自適應、自檢、個性化這六個關(guān)鍵詞的AI,才能夠被稱為“可信任的AI”。

02、用人類的方式說服人類

在討論如何構(gòu)建可信任的AI之前,讓我們先審視下何為信任。

對于確定的、完全知曉的事,我們談不上信任或不信任。只有在面對未知時,我們才需要信任來完成leap of faith(信任的飛躍,指相信或接受超出理性范圍的事物的行為)。

因此,對信任的探討,歸根結(jié)底關(guān)乎我們該如何面對不確定性。這在概率論的哲學基礎上已有許多討論。

對概率的解釋分為頻率學派和貝葉斯學派。

前者統(tǒng)計某件事的出現(xiàn)次數(shù)在總次數(shù)中的比例,當我們說起某個分類模型的準確率有99.99%,這個概率就是基于頻率學派的解釋。

這類解釋在回答AI是否可信任的問題上行得通嗎?

答案可能是否定的。因為無論這個比例有多高(無論小數(shù)點后有多少個數(shù)字“9”),人們都無法完全相信AI。比如在醫(yī)療診斷中,人們還是會擔心自己碰巧就是那個被漏檢的對象。

讓我們再看下貝葉斯學派的解釋。

在貝葉斯式的概率解釋下,有一個初始的、關(guān)于模型是否正確的概率,每增加一個模塊或者輸入數(shù)據(jù),都會導致模型的可靠性增加或降低。

人類在思考不確定性時是其實就是按貝葉斯的方式進行的。例如,在不確定自己的病癥時,病人會要求給自己做更多檢查,或者選擇多聽取一些醫(yī)生的意見,以此來降低自己的擔心。

既然人類是按貝葉斯的方式思考不確定性的,那么我們在向大眾解釋一個AI模型是值得信任的時候,可能也需要采取貝葉斯式的方式——

我們需要說明該AI模型即使出現(xiàn)了異常,它也能夠啟動默認的安全模塊,并不會造成災難性的后果。而不能只列出一個很高的數(shù)字來證明模型的準確性。

03、“可信任的AI”需要新的研究范式

現(xiàn)在需要提到另一本新書。

這本今年10月份上市的新書《Rebooting AI》指出,我們具體應該關(guān)注哪些方向,才能實現(xiàn)“可信任的AI”這一目標。該書的作者是紐約大學的認知科學教授Gary Marcus,他一直對以深度學習為代表的當下AI能走多遠表示懷疑。

這種懷疑不是針對具體的應用場景,而是指向當前的研究范式。

AI的研究范式也要更新了嗎?

公元2019年,你對AI的信任有幾分?

Gary Marcus & Ernest Davis/ 著

兩位認知領(lǐng)域?qū)W者提出了實現(xiàn)真正強大的AI所必須采取的措施。

劉慈欣在《三體》中提到,即使北宋床弩的射程和機關(guān)槍差不多,但兩者在基本原理上的差距決定了它們之間的不同。

Gary Marcus指出,AI研究也需要用“機關(guān)槍式的研究范式”取代“床弩式的研究范式”,只有建立一個全新的航道,才可能達到“可信任的AI”這一目標。

作者系統(tǒng)性地闡述了對當前AI研究界的批判,并針對性地給出了6條可執(zhí)行的建議——

第一,破除對“終極算法”的迷信,即妄圖通過一個算法來使AI達到人類智能。

書中指出,智能來自多個模塊的互動,不存在單一的全能方法。AI研究者除了需要對智能的實現(xiàn)采取“分而治之”的方式,還應當關(guān)注組成智能的多個模塊如何相互影響和作用,結(jié)合自上而下(賦予AI高抽象層次的一般性原則)和自下而上(從數(shù)據(jù)中學習)的方式,讓AI構(gòu)建出對世界和人類道德準則的常識性認知。

第二,人類的認知不是從出生后的學習才開始,而是依賴于進化留下的先天表征。

即使是認知過程中看起來簡單的部分,例如走路、抓取東西,也需要復雜的AI算法才能實現(xiàn)。這些人們以為簡單的行為,其實已經(jīng)包含了進化賦予的機制,正是這種機制使得學習變得容易。

而進化賦予的和學習獲得的機制,在本質(zhì)上是等價的。正如嬰兒天生對類似人臉的圖案更加敏感,AI也不應該從一塊白板出發(fā)。我們需要從一個預先精細調(diào)整過的起點出發(fā),構(gòu)建下一代AI。

第三,破除對大數(shù)據(jù)的迷信,讓機器學會用類似人類認知的方式,基于小數(shù)據(jù)做出決策。

人類對任何一個概念的認知,都取決于概念出現(xiàn)的上下文和其所屬的理論框架。識別出不同的應用場景,不僅可以顯著減少所需數(shù)據(jù),還能夠讓AI變得更加可信任。如果AI可以區(qū)分畫中的一把刀和真實場景下的刀,就可以做出不同的反應。

同時,人類會對每個事物和人的個體分別進行持續(xù)的觀察和跟蹤,以此來將不同時間點的數(shù)據(jù)進行統(tǒng)一的分析。這也是AI需要向人類學習的方式。

第四,在實現(xiàn)智能的過程中引入層次化和模塊化,讓每個模塊之間有清晰的邊界。

我們應當借鑒網(wǎng)絡通訊的分層化設計,將智能按抽象水平、處理的信息和空間尺度或信息整合程度,分成可替換的不同層,從而便于系統(tǒng)內(nèi)的模塊交流與協(xié)作。層級化能夠降低每個層次的任務復雜度,通過局部的自制和放權(quán)將問題簡化。

第五點,來自于對人類認知的觀察,即人類的語言和思考是由簡單的命題根據(jù)“與或非”這樣的邏輯組合而成的。為了更好地與人類合作,AI也需要采取類似的方式,向人類解釋模型為何會做出特定的決策。

例如,醫(yī)療AI向醫(yī)生解釋為何做出(治?。┡袛?,不應只標出具體圖像的局部關(guān)鍵點,而需要通過和正常樣本在多種特征上進行對比,說明該圖像同時滿足如下這些條件,因此判斷病征。

第六點,提倡用因果性替代相關(guān)性,構(gòu)建關(guān)于自身和環(huán)境交互的因果模型。

深度學習能否成功,在嘗試之前是無法確證的,AlphaGo的設計者在設計之初也不確定能否取得如今的成績,畢竟深度學習能夠找到的規(guī)律只是相關(guān)性,而非因果性。

圍棋的棋盤形式和游戲規(guī)則構(gòu)成了一個相對簡單的因果模型,只有勝負的結(jié)果和單一的時間顆粒度,影響勝負的因素只有自己如何下棋。因此,和贏棋相關(guān)的走法,就等同于導致AI更強的算法改進。

但現(xiàn)實中,尤其是在2B的應用場景下,AI需要在多維度和長時間尺度下,做出同時滿足多種評價標準的決策,此時相關(guān)性就不等同于因果性。

04、“可信任”是AI送給人類的最好禮物

現(xiàn)在要提到第三本書,人工智能先驅(qū)、貝葉斯網(wǎng)絡之父Judea Pearl的《為什么》。

Judea Pearl在書中用柏拉圖的洞穴隱喻作類比:

“深度學習系統(tǒng)探索的是洞穴壁上的那些陰影,學習的是準確預測陰影的活動,深度學習系統(tǒng)不能理解它觀察到的陰影僅僅是三維物體的空間運動在二維平面上的投影?!?/p>

因果聯(lián)系的判定對我們認識和理解世界有奠基作用,人們習慣使用因果來解釋事情為何發(fā)生,更因為當下已經(jīng)有成熟的因果推斷的分析方法,能夠在復雜系統(tǒng)中對因果關(guān)系進行量化的評估。

作為因果推斷的發(fā)明人,Judea Pearl寫道:“因果推斷能讓我們?nèi)サ舨幌嚓P(guān)的特征,也能讓我們從不同的研究中把這些在關(guān)鍵方面相似的個體聚集起來,從而促進小數(shù)據(jù)下的學習。”

公元2019年,你對AI的信任有幾分?

Judea Pearl  / 著

開發(fā)具有真正意義智能的機器,因果關(guān)系是必然要邁過的坎。

Judea pearl在本書中提到了認知的三個層次(也稱認知之塔),同樣可以應用在構(gòu)建可信任的AI上——

第一層是相關(guān)性。

對于AI來說,相關(guān)性可以用于為模型提供可解釋性,說明輸入的哪些特征導致了對應的決策,還可以說明在特定情況下,模型能夠確保結(jié)果層面的公平。

第二層是因果性,能夠讓AI具有可問責性。

如果AI能夠通過因果,將模型中的各個模塊聯(lián)系起來,一旦模型出了問題,就可追蹤到具體模塊,除此之外,在面對未知的情況時,明確的因果關(guān)系使得AI可以使用邏輯推理,以顯性的方式去調(diào)用其存儲的常識和先驗表征,從而具有自適應性。

第三層是反事實推斷,處理的是假想中的情況。

人類可以假設如果某種情況發(fā)生,自己該如何應對。通過因果推斷,AI可以具有反事實推斷的能力,這能夠提升模型在未曾預料的場景下的魯棒性。

人類的大腦中存在一個類似于“意圖生成器”的東西,它可以告訴我們采取某種被稱為X的行動最為有利。不過,人類可以出于道德的原因不選擇X,而是采取Y或Z等不會讓自己獲得最大利益的行為。

在未來,可信任的AI應該能通過因果關(guān)系和命題邏輯而具有人類這樣的道德。

信任的根源,在于我們相信與我們合作的伙伴是一個有道德感的實體,不論其是機器還是人,他們都不會把自身的利益放到第一位,而是會依據(jù)一個更大的集體的收益來進行決策。

因此,創(chuàng)建“可信任的AI”,就意味著教會它道德所需的因果推理和命題邏輯。有了可信任的AI,人類甚至可以向自己所創(chuàng)造的事物學習。我們可以依靠機器來尋求明察秋毫、因果合理的正義,我們將進一步了解人類自身的自由意志“軟件”的運作方式。

“可信任的AI”,將成為人類的良師益友,而這正是AI送給人類的第一份,也是最好的禮物。

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多