日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

怎樣提升人工智能的“道德水平”

 時寶官 2017-09-11

    日前,2017世界機器人大會在京閉幕。其中最吸引觀眾眼球的是為期5天的機器人博覽會,各類智能機器人讓人大開眼界?!伴L了”53根手指的鋼琴機器人,可以精準地演奏任何通過軟件輸入系統(tǒng)的曲譜,彈奏能力超越人類極限;身形小巧圓潤、會走路能交談的NAO機器人一亮相,讓人不禁想到電影《機器管家》里智慧深情的機器人安德魯;還有可“走”進人體、為人類做手術(shù)的達芬奇機器人……

    然而,就在2017世界機器人大會開幕前兩天,埃隆·馬斯克等116名全球人工智能和機器人公司創(chuàng)始人發(fā)布聯(lián)名公開信,呼吁聯(lián)合國采取行動禁止“殺手機器人”擴散。公開信指出:“人工智能武器一旦發(fā)展起來,會令武裝沖突的激烈程度躍升到前所未有的層級,而且會以人類難以想象的速度進化?!?/p>

    從前后兩則新聞的內(nèi)容不難看出,人工智能具有雙面性。新一代人工智能的崛起,在給人類帶來驚喜和更高生產(chǎn)力的同時,也引發(fā)了不少擔憂。什么樣的人工智能是人類需要的?如何避免人工智能挑戰(zhàn)人類安全或社會倫理道德?記者就此進行了采訪。

人工智能怎么區(qū)分“對”與“錯”

    人工智能早已在金融、醫(yī)療、廣告、軍事等領域被廣泛應用,引發(fā)人們對人工智能討論與擔憂的導火索,是自動駕駛汽車的面世。

    當一輛自動駕駛汽車行駛在馬路上,它需要根據(jù)實時路況,自主作出決策。紅燈停、綠燈行,黃燈亮了等一等,看到行人還要讓行。如果這些技術(shù)性動作都能夠做到,那當它遇到類似“電車困境”的情景,會如何選擇呢?

    設想一下,有五位行人突然出現(xiàn)在一輛急駛的自動駕駛汽車前面,在來不及剎車的情況下,自動駕駛汽車可以沿著既定路線行駛,這樣可能會撞死這五名行人;它也可以臨時轉(zhuǎn)向,但會撞上旁邊的綠化帶,這樣可能會讓它的乘客喪命。此刻,這輛汽車該如何抉擇?

    中國社科院哲學所研究員段偉文指出,新一代人工智能是以大數(shù)據(jù)為驅(qū)動,其核心是算法。自動駕駛汽車在行駛中的每一個決策,都是通過算法設定好的。數(shù)據(jù)和算法并非完全客觀,數(shù)據(jù)的采集、標注和算法的設計往往負載著價值。因此,數(shù)據(jù)解讀中的價值取向和算法設計中的倫理考量,是決定人工智能區(qū)分道德上“對”與“錯”的關(guān)鍵。

    “人們對自動駕駛汽車這類智能機器的擔心,主要源于對其算法的不了解。不知道在遇到特殊的情景時,會以怎樣的優(yōu)先次序進行決策。”段偉文認為,可引入醫(yī)學倫理中的“知情同意原則”,即人們在購買自動駕駛汽車時,就知道它會按怎樣的優(yōu)先次序去做。比如功利論算法的汽車,以傷害最小化為決策原則。相比于撞到五個行人,它會選擇傷害車上的一名乘客。而道義論算法的汽車,則以行為的道德正義性作為決策原則。

    段偉文進一步指出,人類都沒有解決的“電車困境”難題,人工智能自然也很難給出完美答案。但是人工智能有可能基于它的海量數(shù)據(jù)和迅速反應能力,避免出現(xiàn)類似“電車困境”的情景。

    騰訊研究院未來科技中心高級研究員曹建峰認為,人們的這些擔憂是因為沒有和人工智能機器建立信任關(guān)系?!叭斯ぶ悄苤圃炱髽I(yè)需要通過多種方式建立用戶信任,比如讓自動駕駛汽車可以向用戶解釋其決策。只有當用戶知道智能機器為什么這么做、為什么不那么做的時候,人類與智能機器之間的信任才會慢慢建立?!?/p>

警惕人工智能算法歧視

    算法可以決定自動駕駛汽車在遭遇兩難選擇時,犧牲哪一方。同樣,它還可以決定很多。比如電子科技大學的智慧助困系統(tǒng),它通過對學生的勤工儉學、食堂消費、校車、浴室等大量數(shù)據(jù)記錄的分析,根據(jù)這些外顯行為對學生的經(jīng)濟狀況進行畫像,然后決定每月給哪些學生的飯卡自動充值。

    智慧助困系統(tǒng)這樣充滿人文關(guān)懷的算法設計,是“高道德水平”人工智能的一個經(jīng)典例子。然而,隨著人工智能的推廣普及,各種主觀或客觀的算法歧視越來越引發(fā)人們的關(guān)注。

    “人工智能決策日益流行,算法歧視是一個不容忽視的問題?!辈芙ǚ迮e例,在某網(wǎng)絡公司的廣告服務中,男性比女性看到更多高薪招聘廣告;在購物比價服務中,某網(wǎng)絡購物平臺隱瞞了自己及合作伙伴商品的運費,導致消費者看不到公正的比價結(jié)果;某犯罪風險評估算法系統(tǒng)性地歧視黑人。

    基于大數(shù)據(jù)和算法的人工智能,給人類社會生活中的各種事務和決策工作帶來了很大便利,也一直被標榜為客觀、準確、理性。然而,“算法的設計者們是否可以不偏不倚地將既有法律或道德準則原封不動地編寫進程序,是值得懷疑的。規(guī)則代碼化帶來的不透明、不準確,甚至不公平等問題,值得深思和考究?!辈芙ǚ逄寡浴?/p>

    段偉文也指出,人工智能算法不可避免地要體現(xiàn)設計者與執(zhí)行者的利益和價值取向。由于算法的不透明和難以理解,有時候很難看出其中的歧視和不公。因此很多人在毫不知情的情況下,承受著各種微妙的歧視和精準的不公。

    曹建峰指出,在涉及信用評估、犯罪風險評估、雇傭評估等項目時,人工智能決策的結(jié)果將影響貸款額度、刑罰輕重、雇傭與否?!爱斣絹碓蕉嗟臎Q策工作從人類向智能機器讓渡,如何確保人工智能遵循人類倫理變得愈來愈重要?!?/p>

探索人工智能領域立法

    “可能對于很多人來說,初識人工智能,是通過《終結(jié)者》《少數(shù)派報告》《機器管家》這樣的科幻電影。在這些電影中,機器人會比人類聰明,而且因具有自我意識而最終變得不為人所控制?!倍蝹ノ恼f,這些影片從不同維度折射了人們對智能化未來的擔憂與思考。

    在大多數(shù)從事人工智能研究的專家看來,擬人化地看待人工智能,甚至擔憂其作為一個新物種毀滅人類,有些杞人憂天了。人工智能在單一領域可能比人類強很多,比如下棋、運算,但要讓人工智能像人類一樣能思考、有意識,短期內(nèi)不太可能實現(xiàn)。

    “現(xiàn)階段探討人工智能倫理,主要是指加強人工智能設計倫理,旨在保證優(yōu)先發(fā)展造福人類的人工智能,避免設計和制造出不符合人類價值和利益的人工智能?!鄙虾=煌ù髮W科學史博士陳自富說。

    陳自富認為,人工智能倫理設計有三個方面需要關(guān)注。一是算法設計中的倫理審計,考慮算法中公平、效率之間的關(guān)系,避免使其成為“黑箱”。二是人工智能涉及的數(shù)據(jù)的所有權(quán)、隱私權(quán)和應用開發(fā)權(quán)的問題。三是人工智能開發(fā)中的倫理或政策限制問題,即哪些可以研發(fā),哪些禁止研發(fā),哪些優(yōu)先研發(fā)等。

    “從我國人工智能發(fā)展現(xiàn)狀來看,前兩項都缺乏行業(yè)規(guī)范和相關(guān)標準及法規(guī)。”陳自富指出,一些西方國家在數(shù)據(jù)的所有權(quán)、隱私權(quán)和應用開發(fā)權(quán)的主動管理意識起步較早,對于技術(shù)開發(fā)中與社會各個利益群體之間的溝通,也有穩(wěn)定的機制和監(jiān)督方式。在這些方面,我國要奮起直追。

    現(xiàn)階段算法的不透明性是一個普遍的問題?!捌髽I(yè)可以對算法主張商業(yè)機密或私有財產(chǎn),一般使用者對算法進行審查很困難?!辈芙ǚ逯赋?,在人工智能日益代替人類進行決策的時代,設計出驗證、知情同意、透明、可責、救濟等方面的機制,對于確保人工智能研發(fā)利用與人類社會的價值倫理一致,至關(guān)重要。

    “人工智能產(chǎn)品研發(fā)不僅是技術(shù)人員的事,還需要法律、倫理、哲學、社會等學科人員參與其中。IBM、谷歌等都在某種程度上建立了跨學科的人工智能倫理審查委員會,確保人工智能技術(shù)的有益性。建議我國針對人工智能研發(fā)人員,制定相關(guān)倫理準則。同時探索人工智能領域立法?!辈芙ǚ逭f。

    (本報記者 龔亮 本報通訊員 趙雯)

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,謹防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多