日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

AI若無人性,你我只是被任意曲解的數(shù)據(jù)碎片

 聯(lián)合參謀學院 2018-03-16

文章來源:觀察者網(wǎng)  作者: 雁默

上一篇談AI與中國倫理,就AI發(fā)展現(xiàn)況看來,似乎是有點遙遠的事,畢竟目前仍無法確定通用型AI何時能實現(xiàn),然而,最近有幾則新聞令人警覺,倫理在AI里的應用,可能比我們想像得更急迫。例如英國《金融時報》中文網(wǎng)3月7日的一篇文章“人工智能的算法黑箱與數(shù)據(jù)正義”。

該文頗長,且充滿許多AI專業(yè)用語與法律用語,所以對一般讀者而言不太容易咀嚼,用最簡單的話來描述該文的主旨,就是“AI的判斷造成了歧視與不正義,所以其算法需要透明,以確保人權”。論述的出發(fā)點,則是針對歐盟可能于5月出臺的法案《一般數(shù)據(jù)保護條例》(GDPR),以及其對AI深層學習所可能造成的負面影響。

以下,我試著將重點做些比較清晰易懂的說明,闡述“為何倫理知識可能要在通用型AI階段以前就需要用上”,且不是明天,就是現(xiàn)在。

該文作者將具備知覺與自我意識的通用型AI稱為“強人工智能”,有限功能的AI則為“弱人工智能”。由于強人工智能尚未出現(xiàn),所以該文所闡述的“AI之亂”,是針對目前許多已在社會各角落被使用的弱人工智能。

什么是“算法黑箱”?

用一個簡單的例子來說明。買新車,許多人會?!败圀w險”,以期在愛車遭受碰撞時,能取得保險理賠。在臺灣,相較于竊盜險或其他,車體險最為昂貴,因為車輛遭受或小或大的碰撞機率,遠高于遭竊。車體險的保費并非固定金額,而是隨著一些條件的差異而有不同。決定保費的要件如車輛的售價,車輛品牌的理賠率,車主的年齡,性別,肇事紀錄等等,甚至車輛的顏色都屬于評估范圍,因為開紅色汽車的年輕男性,發(fā)生碰撞的幾率較高。

保險金融業(yè),是以精算來生存的,所以引入能精細評估投保者的AI,理所當然。而若使用AI來評估,決定保費的要件,當然會比上述更為細膩。AI會廣泛地搜羅保險公司的理賠歷史數(shù)據(jù),來分析哪一種人或哪一種車的理賠率較高,以作為保費金額的參考。

如果開紅車的年輕男性要交比較高額的保費讓你覺得有點歧視,試想,如果AI分析得出單親家庭的成員肇事率較高,所以應該繳交更高的保費時,你服氣嗎?

問題是,AI如何得知你出身于單親家庭呢?這么說吧,如果民間征信社可以查出你是否出身單親家庭,AI當然也查到。我們的個人數(shù)據(jù)資料,如果沒有受到嚴密的保護,根本無法逃遁于AI的搜查羅網(wǎng)。

這時你會問,誰能決定要將單親家庭這項條件納入保費評估的?當然是透過保險公司與AI科技公司的合作,而且保險人恐怕根本不會知道這項條件其實被納入了考慮。

“單親家庭”納入評估,就是一種AI算法,而若只有保險評估單位與AI科技公司知道這種算法,被“算計”的人不知道,就是所謂“算法黑箱”。

如果以傳統(tǒng)人工來評估保費,某些算法很可能會受到起碼的道德制約,避免這種歧視性的評估。當然,我們也不能對“人性”打包票,即使完全人工設定評估項,這類問題也未必能完全避免,但沒有“人性”的AI,很可能會肆意地選擇,畢竟它只知如實呈現(xiàn)“客觀”的數(shù)據(jù)分析結果。

與全人工設定相比,了解并參與AI整個分析過程的人更少,這些人完全可能也有更多的機會“放縱”AI。如果需要他們“監(jiān)管”AI的工作,對其“人性”的要求更高。甚至當AI的“自動化”發(fā)展到一定程度,幾乎無人能知道“黑箱”內(nèi)部的情況。所以,保險公司若不將AI算法透明化讓大眾知曉,就會發(fā)生數(shù)據(jù)不正義的現(xiàn)象。

歐盟的《一般數(shù)據(jù)保護條例》,就是在限制AI可能造成的人權侵害,它要求所有科技公司對其AI算法的自動決策機制提出解釋。而這種法令出臺,也等于直接限制了AI的深度學習技術。

說白了,就是重新以“人性”去審視,限制“非人性”的決策模式。而這將使大量依賴深度學習的AI應用不合法。

大數(shù)據(jù)的陰暗面

《人工智能的算法黑箱與數(shù)據(jù)正義》一文,也指出了若干已經(jīng)發(fā)生的數(shù)據(jù)不正義案件,例如美國每周超過1000人被機場AI使用的算法錯誤辨識為恐怖分子。美國法院用以評估犯罪風險的算法COMPAS,對黑人族群造成系統(tǒng)性歧視。華盛頓特區(qū)某個受到普遍認可的教師,被政府的自動化決定程序篩選為表現(xiàn)不佳,而與其他205人一起被解雇。

數(shù)據(jù)不正義的例子又如:當你向銀行貸款,不會希望自己所屬的種族,在銀行的放貸評估范圍內(nèi)。你也不會希望自己在社群網(wǎng)站上的私密發(fā)言,在求職或面臨遣散的時候被納入考慮事項。你更不會希望因為自己豐富的性生活經(jīng)驗,而被性保守的國度拒絕入境。

目前,大數(shù)據(jù)是沒有人性可言的,它不會按照道德標準去彈性處理分析結果,對于依賴大數(shù)據(jù)作為決策基礎的AI而言,你我都只是數(shù)據(jù)碎片,至于要如何組織紛雜零散的數(shù)據(jù)碎片形塑一個“你”,不在你的控制范圍內(nèi),算法黑箱就是這個意思。在這種狀況下,你很有可能覺得AI曲解了你的人格,經(jīng)歷,性向,并錯誤預測你可能產(chǎn)生的行為,進而使你的人權遭受不人道的剝奪。

去年,臉書運用AI根據(jù)大數(shù)據(jù)辨識用戶偏離正常貼文的行為模式,并對于可能出現(xiàn)的輕生念頭發(fā)出警訊,此舉引起了廣泛的倫理討論:我們?nèi)粼谀槙磉_輕生念頭,會引來警察上門盤查,這是否侵犯了個人隱私?這么做合乎道德嗎?類似的例子不勝枚舉,大數(shù)據(jù)侵害人權的質(zhì)疑已廣泛地出現(xiàn)在各個精準營銷的手段上。

大數(shù)據(jù)的陰暗面在于,每一個被分析的對象,都被細鎖地分割成許多的數(shù)據(jù)切片,而我們不會知道哪一分切片會被不當使用。房地產(chǎn)業(yè)者會不會根據(jù)大數(shù)據(jù)剔除自殺傾向較高的租房者?企業(yè)主會不會根據(jù)求職者在網(wǎng)路上貼文的大數(shù)據(jù)分析,將反社會傾向較高的人剔除?婚姻仲介公司會不會根據(jù)你偏好的AV題材大數(shù)據(jù),而拒絕為你媒合對象?

歐盟可能即將生效的《一般數(shù)據(jù)保護條例》設下了兩種規(guī)范,其一:AI的自動化決定,除非你同意,或在合約條件上不可少,否則你有權不受該決定的限制。其二:將個人敏感數(shù)據(jù)排除在自動化決定,也就是AI算法之外。所謂敏感數(shù)據(jù)是指種族、政治傾向、宗教信仰、健康、性生活、性取向的數(shù)據(jù),或者可唯一性識別自然人的基因數(shù)據(jù)、生物數(shù)據(jù)。

法律只是道德的底線,有許多大數(shù)據(jù)曲解,可能是合法卻不符合人情道德的,故而對AI與大數(shù)據(jù)的法令限制,也不可能消除所有“科技的不義”,并有法律自身的限制與可鉆的漏洞。

如規(guī)范一,當你已被AI貼上了標簽,即便你有權否決AI判斷,但標簽貼上了就是貼上了,他人也可以自由心證地決定是否采納這個標簽,讓你受到隱性的不公平待遇。

再如標簽二,即便種族不在AI的數(shù)據(jù)分析之內(nèi),但它仍可透過你的居住地,收入或前科紀錄推論出你所屬的種族。尤其重要的是,即便法律規(guī)定的算法透明化了,一般人恐怕也難以讀懂復雜的運算法。

亦即,外在的法律規(guī)范是不足的,要更徹底地解決問題,必然要在AI科技的內(nèi)部,做算法的自我規(guī)范。換言之,即是建立AI決策技術上的倫理規(guī)范,用道德、風俗、人情以規(guī)范AI的分析路徑。

讓AI主動避免逾越法律界線

就像克隆人科技的發(fā)展命運,AI這種同樣牽涉到人類道德的科技,最大的瓶頸不是來自于技術,而是來自于道德束縛。事實上,克隆人,基因治療,太空生活等領域,早已進入了倫理學的范疇。這些與人類生命有關的新興科技,被納入應用倫理學的生命倫理學范圍,并在這些科技領域里發(fā)揮限制或引導的作用。所以AI倫理學遲早也會成為一門嚴肅而專精的學術,而從已然發(fā)生的AI誤判或大數(shù)據(jù)歧視案件來看,這門學問將成為左右人類社會發(fā)展的重要知識系統(tǒng)之一。

《一般數(shù)據(jù)保護條例》對AI產(chǎn)業(yè)的發(fā)展,無疑是一項重擊,因為它對AI的核心技術產(chǎn)生了人道上的質(zhì)疑。法律的限制將使得現(xiàn)有技術綁手綁腳,迫使某些重要計劃產(chǎn)生停頓也是有可能的。但從產(chǎn)業(yè)面的角度來看,限制技術的法律也應該正面看待,因為產(chǎn)品終究得獲得人們的信任,才得以繼續(xù)發(fā)展,而法令限制也會迫使產(chǎn)業(yè)將技術加速導向人性化。

發(fā)展AI的道德自主判斷技術,則是最能確保此項科技逾越法律界線的方式。用最簡單的方式來說,就是讓AI比人還道德。這里的道德包含對人全面性的綜合評估,寬容、平等,與客觀無私。

上一篇我談到AI的核心是“人的思考模式”。我們的思考運作特征,是跳躍性思考與綜合式判斷,這也正是AI最難處理的技術問題。

你希望心儀的對象如何看待你?難道樂見她對你的了解僅止于網(wǎng)路上的情緒發(fā)言,斷章取義,憤世忌俗,或偏激思想?不會,你希望對方也能綜合性地考慮你良善的一面。對AI而言,綜合式地算出你的各個大數(shù)據(jù)切片,才是符合人情道德的運算法。

你希望你任職的公司如何預測你的潛力?難道你樂見只因要求加薪,公司就認為你難以管理,利己主義,或缺乏團隊合作的特質(zhì)?不會,你會希望公司也能跳躍性思考,考慮“要求加薪”這項行為所需的膽識,積極,謀略等正面特質(zhì)。

總而言之,AI必須能從人性的角度來判斷一個人,并在各種決策要求上,能適切地篩除不符合人情義理的大數(shù)據(jù)切片。這就是倫理學等文科知識,在未來科技上所能扮演的關鍵角色。

其實,大數(shù)據(jù)的倫理問題在2015年時就已受到大陸學術單位的正視,如國家社會科學基金中大項目“高科技倫理問題研究”項目組與湖南省倫理學學會聯(lián)合主辦的“第一屆賽博倫理學研討會”。顯示大數(shù)據(jù),AI發(fā)展的同時,急迫需要倫理規(guī)范的知識系統(tǒng)對科技予以引導,以免因弱人工智能所引發(fā)的道德疑慮,一方面使社會進入失序的數(shù)據(jù)曲解,另一方面阻礙了強人工智能的發(fā)展。

兩岸都有類似的問題,即文科知識正面臨學生、家長與社會的普遍輕視,這是由于工業(yè)化與后工業(yè)化環(huán)境的人才需求,傾向于培養(yǎng)理工科的人力資源。然而,當科技繞了一圈,由數(shù)理邏輯發(fā)展到非線性思維的應用時,文科終于在適應與啟發(fā)現(xiàn)代社會的層次上,派上了用場。

所以,我們都得與時俱進,重新正視文科知識在人類文明發(fā)展里應有的高度,也讓學文的人才,能在未來的勞動市場里有更多樣性的選擇,與學理工的人才一起推動社會進步。

(注:本文所有觀點僅代表作者本人,均不代表鳳凰網(wǎng)國際智庫立場)

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多