日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

生成式人工智能及其教育應(yīng)用的基本爭(zhēng)議和對(duì)策

 數(shù)術(shù)窮天地 2024-01-28 發(fā)布于北京

圖片

圖片

作者簡(jiǎn)介

苗逢春,研究員,北京師范大學(xué),聯(lián)合國(guó)教科文組織總部部門(mén)主任,研究方向:人工智能與教育、數(shù)字學(xué)習(xí)政策、未來(lái)數(shù)字學(xué)校(f.miao@unesco.org)。

摘要:本文是對(duì)聯(lián)合國(guó)教科文組織《生成式人工智能教育與研究應(yīng)用指南》的系列解讀第二篇,著重討論生成式人工智能及其教育應(yīng)用引發(fā)的基本爭(zhēng)議?!盎诠ぷ鬟^(guò)程”技術(shù)缺陷,生成式人工智能已引發(fā)加速數(shù)據(jù)貧窮、技術(shù)不透明導(dǎo)致服務(wù)轄區(qū)內(nèi)治理缺失、未經(jīng)許可搜集訓(xùn)練用數(shù)據(jù)、模型架構(gòu)不可解釋、基礎(chǔ)模型不理解真實(shí)世界、生成的信息污染互聯(lián)網(wǎng)、強(qiáng)勢(shì)價(jià)值觀投射、助長(zhǎng)違法性深偽等多重爭(zhēng)議。生成式人工智能會(huì)對(duì)平等、包容、學(xué)習(xí)主體能動(dòng)性、價(jià)值觀及語(yǔ)言文化多樣性、知識(shí)建構(gòu)的多元性等教育核心價(jià)值產(chǎn)生直接而深遠(yuǎn)的沖擊,而這些核心價(jià)值應(yīng)被秉承為考證生成式人工智能教育適用性的邏輯基點(diǎn)。決策者和實(shí)踐者應(yīng)遵循“優(yōu)先管制、確保包容、引導(dǎo)應(yīng)用”的邏輯路徑,強(qiáng)化全系統(tǒng)監(jiān)管法規(guī)和執(zhí)法能力,確保教育生成式人工智能生態(tài)系統(tǒng)安全可信、自主可控、本地適用,進(jìn)而通過(guò)能力建設(shè)和實(shí)踐指導(dǎo)等措施引導(dǎo)合理的教育應(yīng)用實(shí)踐。

關(guān)鍵詞:生成式人工智能;內(nèi)容加工;訓(xùn)練數(shù)據(jù)集來(lái)源;公平、包容及語(yǔ)言文化多樣性

2022 年 11 月 ,美國(guó)開(kāi)放人工智能研究中心(OpenAI  Artificial  Intelligence  Research  Center  INC,OpenAI)發(fā)布了第三代聊天生成式預(yù)訓(xùn)練轉(zhuǎn)換模型(Chat Generative Pre-trained Transformers,ChatGPT)—ChatGPT-3 ,開(kāi)啟了生成式人工智能(Generative AI)從研發(fā)轉(zhuǎn)向商用和民用的新歷史時(shí)期。在 ChatGPT 發(fā)布近一年時(shí)間里,其引發(fā)的影響及管制反彈主要體現(xiàn)為四個(gè)方面。1)壟斷與多元。OpenAI、谷歌公司和 Meta 公司的生成式人工智能平臺(tái)形成了貫穿基礎(chǔ)模型、網(wǎng)絡(luò)基礎(chǔ)設(shè)施和文圖音視內(nèi)容加工等領(lǐng)域的垂直壟斷。同時(shí),其他大型公司和開(kāi)源大模型社群等發(fā)起了基礎(chǔ)模型開(kāi)源化、平臺(tái)選擇多元化、語(yǔ)言文化多樣化的研發(fā)追趕與生態(tài)布局抗衡。2)應(yīng)用與替代。生成式人工智能在商業(yè)領(lǐng)域迅速推廣,引發(fā)相關(guān)行業(yè)工作崗位快速自動(dòng)化。3)爭(zhēng)議與治理。生成式人工智能的安全和倫理威脅從理論憂(yōu)患浮現(xiàn)為實(shí)際法律案例,形成堅(jiān)信其積極變革潛力和憂(yōu)慮其潛在人文威脅之間的對(duì)立,加速中國(guó)、美國(guó)、歐盟等國(guó)家和經(jīng)濟(jì)體的針對(duì)性立法。4)愿景與現(xiàn)實(shí)。迅速涌現(xiàn)的生成式人工智能正在顛覆和變革教育等社會(huì)服務(wù)領(lǐng)域,但與該技術(shù)對(duì)本土學(xué)生尤其是未成年人的教育適用性和實(shí)用性的理性研判之間存在明顯斷層。其中,社會(huì)各界對(duì)生成式人工智能可能引發(fā)的安全及倫理憂(yōu)患眾說(shuō)紛紜、莫衷一是。聯(lián)合國(guó)教科文組織 2023 年 9 月發(fā)布的《生成式人工智能教育與研究應(yīng)用指南》(簡(jiǎn)稱(chēng)《指南》)(Miao,2023)首次在對(duì)該類(lèi)技術(shù)的工作原理進(jìn)行溯源的基礎(chǔ)上,系統(tǒng)總結(jié)了八個(gè)有關(guān)生成式人工智能的基本爭(zhēng)議,進(jìn)而揭示了爭(zhēng)議對(duì)生成式人工智能教育應(yīng)用的根本影響。《指南》針對(duì)性地提出應(yīng)對(duì)這些基本爭(zhēng)議的公共治理策略、生成式人工智能教育應(yīng)用的政策和引導(dǎo)主體適用的人機(jī)互動(dòng)應(yīng)用的實(shí)踐框架。
本研究是對(duì)《指南》的第二篇解讀,聚焦于系統(tǒng)總結(jié)和剖析生成式人工智能及其教育應(yīng)用的基本爭(zhēng)議,并針對(duì)這些爭(zhēng)議的起因和責(zé)任主體提出治理對(duì)策和實(shí)踐應(yīng)用建議。本研究的相關(guān)解讀基于三個(gè)相互關(guān)聯(lián)的基本假設(shè):第一,人工智能科技創(chuàng)新、人工智能的安全可信性、包容平等的社會(huì)應(yīng)用不應(yīng)成為三難悖論(trilemma),人類(lèi)應(yīng)追求三維同頻共振;第二,生成式人工智能對(duì)全社會(huì)及教育平等與包容、學(xué)習(xí)主體能動(dòng)性、價(jià)值觀及語(yǔ)言文化多樣性、知識(shí)建構(gòu)的多元性等教育核心價(jià)值的威脅最為直接和深入,這些核心價(jià)值應(yīng)成為考證生成式人工智能教育適用性的邏輯起點(diǎn);第三,生成式人工智能的教育應(yīng)用應(yīng)遵循“優(yōu)先管制、確保包容、引導(dǎo)應(yīng)用”的邏輯。

一、爭(zhēng)議的技術(shù)起因

對(duì)生成式人工智能教育應(yīng)用爭(zhēng)議的討論須以其工作原理、技術(shù)缺陷及其對(duì)社會(huì)的顯性和潛在影響為依據(jù)。

(一)生成式人工智能工作原理及其訓(xùn)練用數(shù)據(jù)來(lái)源和語(yǔ)言分布

《指南》從人工智能對(duì)人類(lèi)思維表征符號(hào)系統(tǒng)模擬的角度界定生成式人工智能:生成式人工智能是基于人類(lèi)思維符號(hào)表征系統(tǒng)表達(dá)的提示工程(prompt engineering)自動(dòng)生成內(nèi)容的人工智能技術(shù)。生成式人工智能技術(shù)對(duì)借助各類(lèi)符號(hào)表征系統(tǒng)呈現(xiàn)的內(nèi)容進(jìn)行模式識(shí)別和內(nèi)容生產(chǎn)方面的性能日益強(qiáng)大,目前已能貫通文字、語(yǔ)音、聲音、圖像、視頻、計(jì)算機(jī)編碼等格式進(jìn)行模式識(shí)別,并借助上述符合表征系統(tǒng)生成新內(nèi)容。文本生成式人工智能使用人工神經(jīng)網(wǎng)絡(luò)技術(shù)的通用文本轉(zhuǎn)換器,通常被稱(chēng)為“大語(yǔ)言模型”(Large Language Model),是一種利用從互聯(lián)網(wǎng)網(wǎng)頁(yè)內(nèi)容、社交媒體對(duì)話(huà)和其他在線(xiàn)媒體收集數(shù)據(jù)進(jìn)行訓(xùn)練的內(nèi)容生成深度學(xué)習(xí)模型。文本或語(yǔ)音生成式預(yù)訓(xùn)練轉(zhuǎn)換模型,可以對(duì)訓(xùn)練用數(shù)據(jù)集的各類(lèi)句法模式進(jìn)行識(shí)別和學(xué)習(xí),然后經(jīng)過(guò)反復(fù)訓(xùn)練、測(cè)試和優(yōu)化,獲得根據(jù)提示、通過(guò)重復(fù)執(zhí)行事先確認(rèn)的模式生成內(nèi)容或提供答案的能力。其關(guān)鍵技術(shù)環(huán)節(jié)包括:1)將提示指令分解為人工智能可處理的文本最小單位字節(jié)(token)后,輸入到生成式預(yù)訓(xùn)練轉(zhuǎn)換器中;2)轉(zhuǎn)換器根據(jù)從訓(xùn)練數(shù)據(jù)集中確認(rèn)的語(yǔ)言模式,預(yù)測(cè)特定單詞或短語(yǔ)在特定語(yǔ)境出現(xiàn)的概率,通過(guò)統(tǒng)計(jì)模型預(yù)測(cè)的擬合度組合為連貫反應(yīng)的詞語(yǔ)及其連綴方式(即句法),并借此預(yù)測(cè)后續(xù)最有可能使用的單詞或短語(yǔ);3)將預(yù)測(cè)產(chǎn)生的單詞或短語(yǔ)轉(zhuǎn)化為可閱讀的文本(或可理解的聲音)??衫斫獾奈谋净蚵曇艚?jīng)過(guò)“護(hù)欄技術(shù)”(guardrails)過(guò)濾明顯違法或不合標(biāo)準(zhǔn)的不良輸出,并通過(guò)處理技術(shù)提高句法的擬人化程度和可理解性。上述過(guò)程不斷循環(huán)重復(fù),直到完成一個(gè)完整的響應(yīng)。

圖像或音樂(lè)生成式人工智能多采用生成對(duì)抗網(wǎng)絡(luò)(generative adversarial networks,GANs)人工神經(jīng)網(wǎng)絡(luò)技術(shù),并可與變分自編碼器(variational autoencoders)技術(shù)結(jié)合使用。也有圖像生成式人工采取擴(kuò)散模型(diffusion models)等無(wú)監(jiān)督生成模型。例如,生成對(duì)抗網(wǎng)絡(luò)模型由兩個(gè)對(duì)抗器組成,即生成器(generator)和判別器(discriminator)。生成器針對(duì)提示識(shí)別圖像或音樂(lè)要素組合模式并生成隨機(jī)圖像或音樂(lè)片段,判別器對(duì)比生成的圖像或音樂(lè)與真實(shí)圖像或音樂(lè)(或范例)之間的擬合度。生成器隨后根據(jù)判別器的對(duì)比結(jié)果調(diào)整其使用的參數(shù)以便生成更優(yōu)化的圖像。通過(guò)千百次不斷的迭代訓(xùn)練,生成器創(chuàng)作的圖像或音樂(lè)越來(lái)越逼真。

生成式預(yù)訓(xùn)練轉(zhuǎn)換器的功能依賴(lài)于模型架構(gòu)、訓(xùn)練方法和預(yù)訓(xùn)練數(shù)據(jù)集的質(zhì)量、數(shù)量和模型使用的參數(shù)。其中,參數(shù)是決定人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)如何加工輸入和產(chǎn)生輸出的數(shù)值,它通過(guò)界定訓(xùn)練中的數(shù)據(jù)對(duì)模型的內(nèi)容要素進(jìn)行編碼。參數(shù)的定義和數(shù)量決定預(yù)訓(xùn)練轉(zhuǎn)換器的性能和應(yīng)用表現(xiàn)。GPT-3 使用了約 1750 億個(gè)參數(shù),而 GPT-4 使用的參數(shù)據(jù)稱(chēng)達(dá) 1.8 萬(wàn)億。從模型架構(gòu)的成熟度、所用的參數(shù)規(guī)模、內(nèi)容處理和生產(chǎn)能力、語(yǔ)言覆蓋范圍等方面考量 ,占全球壟斷地位的大模型包括 OpenAI 的 ChatGPT 系列產(chǎn)品、Meta 公司的 “羊駝”大語(yǔ)言模型(Alpaca)和 Meta 大語(yǔ)言人工智能模型(簡(jiǎn)稱(chēng) Llama 大模型)、谷歌公司“詩(shī)人”大語(yǔ)言模型(Bard,基于谷歌的 PaLM2 基礎(chǔ)模型)和“雙子座”多模態(tài)大模型(Gemini)。已有生成式人工智能模型的訓(xùn)練用數(shù)據(jù)集主要包括通過(guò)爬蟲(chóng)軟件讀取互聯(lián)網(wǎng)網(wǎng)頁(yè)信息、社交媒體對(duì)話(huà)信息、在線(xiàn)圖書(shū)館圖書(shū)資料和互聯(lián)網(wǎng)百科類(lèi)平臺(tái)的百科內(nèi)容。以 ChatGPT-3 為例,其訓(xùn)練用文本數(shù)據(jù)(即語(yǔ)料)約 1 TB 左右((即語(yǔ)料)約 1 TB 左右(Thompson,2023) ,主要來(lái)源包括 :自 2012 年以來(lái)持續(xù)通過(guò)“網(wǎng)絡(luò)爬蟲(chóng)數(shù)據(jù)集”(common crawl)從互聯(lián)網(wǎng)收集的數(shù)據(jù),約占數(shù)據(jù)總量的 61.75%;通過(guò)“紅迪”電子布告欄(Reddit)收集的點(diǎn)贊數(shù)超過(guò) 3 個(gè)的社交媒體發(fā)帖和討論數(shù)據(jù),約占 18.86%;兩個(gè)在線(xiàn)圖書(shū)平臺(tái)( 和 Smashwords)的在線(xiàn)圖書(shū),約占 15.9%;維基百科數(shù)據(jù),約占 3.49%。目前壟斷性生成式人工智能模型的訓(xùn)練用數(shù)據(jù)集以美國(guó)和歐洲國(guó)家的語(yǔ)言為主。在 ChatGPT-3 的訓(xùn)練數(shù)據(jù)集中,英語(yǔ)語(yǔ)料約占 92.65%,歐洲各國(guó)語(yǔ)言占比超過(guò) 5%,漢語(yǔ)語(yǔ)料占比不到 0.1%。Meta 公司開(kāi)發(fā)的 Llama  2 語(yǔ)料中 ,英語(yǔ)占比有所下降但仍占 89.7%,其他占比排前 15 的語(yǔ)言幾乎沒(méi)有改變,漢語(yǔ)語(yǔ)料占比為 0.13%(Touvron et al.,2023) 。預(yù)訓(xùn)練用數(shù)據(jù)集和參數(shù)的幾何級(jí)數(shù)增長(zhǎng)要求超算能力同步加速。在超級(jí)計(jì)算支撐方面 ,從 2012 年到 2019 年,用于生成式人工智能模型訓(xùn)練的算力的翻倍周期為 3~4 個(gè)月(Stanford University,2019)。

(二)生成式人工智能在內(nèi)容處理范疇的集成性技術(shù)躍遷與潛在技術(shù)范疇瓶頸

生成式人工智能在多種深度學(xué)習(xí)技術(shù)中的綜合應(yīng)用、模型架構(gòu)的優(yōu)化、所用參數(shù)以千億級(jí)為基點(diǎn)的持續(xù)細(xì)化、訓(xùn)練用數(shù)據(jù)的跨平臺(tái)動(dòng)態(tài)挖掘與疊增、處理海量數(shù)據(jù)和參數(shù)所需計(jì)算能力的周期倍增等核心技術(shù)和支撐技術(shù)領(lǐng)域都取得了集成性的突破。這種集成性技術(shù)突破在技術(shù)和實(shí)踐領(lǐng)域產(chǎn)生了“逃逸效應(yīng)”(runaway effect,又譯為“失控效應(yīng)”)。首先,生成式人工智能的近期成果表現(xiàn)為人工智能技術(shù)在跨符號(hào)表征系統(tǒng)數(shù)據(jù)加工和呈現(xiàn)方面的突破,提升了人類(lèi)挖掘技術(shù)能力,由此加速了人工智能芯片、超算技術(shù)、數(shù)據(jù)加工模型等全領(lǐng)域的技術(shù)研發(fā)。鑒于其基礎(chǔ)性技術(shù)突破和影響,斯坦福大學(xué)學(xué)者 2021 年提出的“基礎(chǔ)模型”(foundation models)概念已被廣泛接受(Bommasani,2021)。其次,生成式人工智能已引發(fā)網(wǎng)絡(luò)瀏覽器和網(wǎng)絡(luò)搜索引擎等數(shù)字基礎(chǔ)設(shè)施的全面升級(jí),成為最底層國(guó)家數(shù)據(jù)安全和個(gè)人數(shù)據(jù)隱私保護(hù)的核心控制節(jié)點(diǎn),并將引發(fā)數(shù)字管制政策和數(shù)字安全設(shè)施的全面升級(jí)。再次,生成式人工智能為直接和間接以?xún)?nèi)容生產(chǎn)和內(nèi)容綜述為目的的經(jīng)濟(jì)和社會(huì)領(lǐng)域提供了提高生產(chǎn)效率的基礎(chǔ)工具,將引發(fā)大規(guī)模的生產(chǎn)方式變革。但生成式人工智能對(duì)教育等不以?xún)?nèi)容生產(chǎn)為目的的行業(yè)的效能提升和行業(yè)變革能力會(huì)有極大的局限性。

從可知的技術(shù)路線(xiàn)分析發(fā)現(xiàn),生成式人工智能采用的人工神經(jīng)網(wǎng)絡(luò)技術(shù)取得的成就皆屬統(tǒng)計(jì)曲線(xiàn)擬合,它不同于人類(lèi)結(jié)合時(shí)間、地點(diǎn)和因果關(guān)系等的推理智能(Pearl, et al.,2018)。如果生成式人工智能所代表的深度學(xué)習(xí)技術(shù)路線(xiàn)是對(duì)人類(lèi)智能問(wèn)題解決進(jìn)行可計(jì)算性模擬的正確路徑,那么其持續(xù)的迭代突破將會(huì)產(chǎn)生超越內(nèi)容加工范疇的通用人工智能逃逸效應(yīng),即積蓄足夠的技術(shù)勢(shì)能后會(huì)全面趕超人類(lèi)智能的奇點(diǎn)并進(jìn)入通用人工智能,進(jìn)入相對(duì)脫離人類(lèi)控制的發(fā)展軌道。但據(jù)目前可知的基礎(chǔ)模型工作原理,生成式人工智能的底層技術(shù)似乎還停留在內(nèi)容綜述、借助符號(hào)表征系統(tǒng)的內(nèi)容加工和格式轉(zhuǎn)換范疇,尚未進(jìn)入模擬人類(lèi)理解力的技術(shù)路線(xiàn),仍屬“范疇性錯(cuò)誤”(a category mistake)(Bishop,2021)。目前取得的技術(shù)突破是否屬于范疇錯(cuò)誤瓶頸前的技術(shù)性能躍遷有待觀察。

二、生成式人工智能的基本爭(zhēng)議 

生成式人工智能的基本爭(zhēng)議本質(zhì)上屬于人機(jī)互動(dòng)引發(fā)的人文憂(yōu)患,本研究從人機(jī)互動(dòng)的技術(shù)和人文兩個(gè)維度解析。其中,技術(shù)維度是人工智能系統(tǒng)生命周期的主要環(huán)節(jié),主要包含以下向度:數(shù)據(jù)的產(chǎn)生與保存、數(shù)據(jù)及數(shù)據(jù)設(shè)備的訪(fǎng)問(wèn)權(quán)與控制權(quán)、基于數(shù)據(jù)與算法的預(yù)測(cè)與決策影響的外顯行為、智能人機(jī)界面及智能設(shè)備等實(shí)體人工智能。人文維度即人類(lèi)借助技術(shù)以個(gè)體存在、社會(huì)交往、國(guó)家治理以及人類(lèi)與生態(tài)系統(tǒng)互動(dòng)等的多層次人文活動(dòng),主要包括以下彼此關(guān)聯(lián)的向度:人類(lèi)個(gè)體、人與人互動(dòng)的群體、以主權(quán)國(guó)家形式存在的人與人關(guān)系體、人與環(huán)境及生態(tài)系統(tǒng)的互動(dòng)(苗逢春,2022)。在大面積推廣使用該技術(shù)前,使用者有必要從其訓(xùn)練數(shù)據(jù)采集、數(shù)據(jù)使用、基礎(chǔ)技術(shù)架構(gòu)、基于模式識(shí)別的內(nèi)容輸出等方面加以分析,研判對(duì)個(gè)體、社會(huì)和國(guó)家的現(xiàn)實(shí)威脅和潛在影響。

(一)數(shù)據(jù)生產(chǎn)力挖掘爭(zhēng)議:數(shù)據(jù)貧窮和數(shù)字貧窮惡化

中共中央、國(guó)務(wù)院(2022)頒布的《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度更好發(fā)揮數(shù)據(jù)要素作用的意見(jiàn)》是人類(lèi)進(jìn)入數(shù)據(jù)財(cái)產(chǎn)和數(shù)據(jù)產(chǎn)權(quán)保護(hù)時(shí)代的法律標(biāo)志。從此視域出發(fā),生成式人工智能對(duì)個(gè)體和商業(yè)數(shù)據(jù)的免費(fèi)采集使用并借助基于數(shù)據(jù)訓(xùn)練的技術(shù)產(chǎn)品進(jìn)行商業(yè)謀利,會(huì)將原本潛藏的數(shù)據(jù)生產(chǎn)要素跨國(guó)跨行業(yè)價(jià)值挖掘爭(zhēng)議推向前臺(tái)。

訪(fǎng)問(wèn)和應(yīng)用高質(zhì)量數(shù)據(jù)、隨時(shí)生產(chǎn)高質(zhì)量在線(xiàn)數(shù)據(jù)和轉(zhuǎn)化數(shù)據(jù)的能力已成為人工智能時(shí)代支撐國(guó)家經(jīng)濟(jì)發(fā)展和個(gè)體獲得數(shù)字發(fā)展機(jī)會(huì)的基本條件。故而,缺乏數(shù)據(jù)訪(fǎng)問(wèn)機(jī)會(huì)、不具備數(shù)據(jù)挖掘所需的技術(shù)能力和超算能力的國(guó)家或不具備數(shù)據(jù)應(yīng)用支付能力的個(gè)體將處于“數(shù)據(jù)貧窮”(data poverty)(Marwala, 2023)的境地。生成式人工智能提供商基于免費(fèi)數(shù)據(jù)訓(xùn)練基礎(chǔ)模型和借助訓(xùn)練成熟的模型提供有償服務(wù)的數(shù)據(jù)剝削生產(chǎn)方式會(huì)加劇數(shù)據(jù)貧窮的惡化。生成式人工智能對(duì)數(shù)據(jù)生產(chǎn)要素的挖掘依賴(lài)于三個(gè)必要條件:人工智能架構(gòu)設(shè)計(jì)和訓(xùn)練方法的迭代創(chuàng)新、海量數(shù)據(jù)集和超級(jí)計(jì)算能力。目前全球僅美國(guó)、中國(guó)和歐盟或極少數(shù)超大型數(shù)字技術(shù)公司同時(shí)具備參與基礎(chǔ)模型競(jìng)爭(zhēng)所需的必備條件,數(shù)據(jù)貧窮國(guó)家在生成式人工智能領(lǐng)域的差距迅速拉大并被排斥在基礎(chǔ)模型核心研發(fā)圈外。生成式人工智能的跨領(lǐng)域普及加快了人工智能領(lǐng)先國(guó)家和公司數(shù)據(jù)生成和技術(shù)迭代的速度,成為加速數(shù)字鴻溝惡性循環(huán)的底層技術(shù)成因。

逆轉(zhuǎn)數(shù)據(jù)貧窮惡性循環(huán)的當(dāng)務(wù)之急,是從國(guó)家層面解析和補(bǔ)足轉(zhuǎn)化數(shù)據(jù)要素生產(chǎn)所需的各層次短板,基于下述“數(shù)據(jù)貧窮成因分類(lèi)目錄”解構(gòu)和配給轉(zhuǎn)化數(shù)據(jù)生產(chǎn)所需的各類(lèi)生產(chǎn)要素:大數(shù)據(jù)生產(chǎn)所需的互聯(lián)網(wǎng)普及率、全民數(shù)字素養(yǎng)普及率、數(shù)據(jù)流量成本可承受性、人工智能創(chuàng)新人才儲(chǔ)備和創(chuàng)新激發(fā)機(jī)制、人工智能芯片及超算能力的可及性和性能、借助本地或國(guó)際可信數(shù)據(jù)訓(xùn)練本地模型的能力等。針對(duì)該爭(zhēng)議的延伸問(wèn)題是:如果跨國(guó)生成式人工智能提供商從低收入國(guó)家搜集使用的數(shù)據(jù)達(dá)到一定規(guī)模,是否應(yīng)通過(guò)征收數(shù)據(jù)使用稅等國(guó)際立法措施平衡數(shù)據(jù)生產(chǎn)要素剩余價(jià)值的分配機(jī)制?在具體立法方面,如何界定和追蹤數(shù)據(jù)要素的使用量、如何計(jì)算數(shù)據(jù)生產(chǎn)剩余價(jià)值及其稅收標(biāo)準(zhǔn)、如何在鼓勵(lì)技術(shù)創(chuàng)新和保護(hù)數(shù)據(jù)貧窮人口基本利益方面取得平衡等問(wèn)題,都將是國(guó)際數(shù)據(jù)要素治理的前沿難題。

(二)服務(wù)轄區(qū)內(nèi)治理爭(zhēng)議:生成式人工智能服務(wù)轄區(qū)內(nèi)治理失控

生成式人工智能系統(tǒng)的跨境服務(wù)應(yīng)接受其服務(wù)覆蓋區(qū)域當(dāng)?shù)卣卫頇C(jī)構(gòu)的管制,但生成式人工智能基于技術(shù)不透明的跨境服務(wù)已引發(fā)治理領(lǐng)域的多重爭(zhēng)議。首先,壟斷生成式人工智能系統(tǒng)提供商拒絕向獨(dú)立學(xué)術(shù)機(jī)構(gòu)提供基本的透明性資料并接受基本學(xué)術(shù)評(píng)估(Bommasani, 2023)。其次,生成式人工智能的基礎(chǔ)性技術(shù)多受以美國(guó)為主的提供商所在國(guó)知識(shí)產(chǎn)權(quán)保護(hù)而不向其服務(wù)覆蓋的國(guó)家開(kāi)放,導(dǎo)致已有用戶(hù)所在國(guó)家在管制技術(shù)系統(tǒng)和應(yīng)用實(shí)踐安全性方面面臨極大挑戰(zhàn)(Lin, 2023)。第三,盡管有專(zhuān)家呼吁暫緩生成式人工智能的研發(fā)并謀求與公共治理機(jī)制同頻共振,但資本驅(qū)動(dòng)的人工智能研發(fā)迭代節(jié)奏遠(yuǎn)超各國(guó)監(jiān)管法規(guī)的起草速度,對(duì)各國(guó)治理機(jī)構(gòu)應(yīng)對(duì)相關(guān)法律和倫理憂(yōu)患提出了技術(shù)不對(duì)等的巨大挑戰(zhàn)。

各國(guó)生成式人工智能的治理呈現(xiàn)梯度性制度缺失和滯后:1)通用數(shù)據(jù)隱私保護(hù)法尚未形成覆蓋全球的完整圖譜。截至 2023 年 7 月,全球只有 137 個(gè)國(guó)家制定并頒布數(shù)據(jù)隱私保護(hù)的法律框架,近三分之一的國(guó)家無(wú)基本數(shù)據(jù)隱私保護(hù)法(UNCTAD,2023)。2)整體性國(guó)家人工智能戰(zhàn)略缺失。《指南》頒布前,約 67 個(gè)國(guó)家制定了國(guó)家人工智能戰(zhàn)略規(guī)劃。《指南》頒布后,盧旺達(dá)和多米尼加共和國(guó)發(fā)布各自的人工智能戰(zhàn)略。3)國(guó)家人工智能倫理治理框架制定滯后。調(diào)研發(fā)現(xiàn),截至 2023 年 7 月,全球僅約 40 個(gè)國(guó)家制定了針對(duì)人工智能倫理治理的相關(guān)政策。4)應(yīng)對(duì)生成式人工智能的立法無(wú)力。調(diào)研發(fā)現(xiàn),截至 2023 年 7 月,針對(duì)生成式人工智能技術(shù)合成內(nèi)容作品能否受知識(shí)產(chǎn)權(quán)保護(hù)進(jìn)行論證并提出明確管理意見(jiàn)的只有中國(guó)、美國(guó)和歐盟三個(gè)國(guó)家或經(jīng)濟(jì)體。在《指南》發(fā)布前,只有中國(guó)制定并發(fā)布了《生成式人工智能暫行管理辦法》。此后,美國(guó)政府 2023 年 10 月底發(fā)布了《關(guān)于安全有保障和可信地開(kāi)發(fā)與使用人工智能的行政命令》(The White House, 2023)。歐洲議會(huì) 2023 年 7 月啟動(dòng)《人工智能法案》的起草和談判程序,并于 2023 年 12 月通過(guò)全球最具有法律綁定效力的人工智能管制法律(European Parliament, 2023)。

(三)預(yù)訓(xùn)練數(shù)據(jù)版權(quán)爭(zhēng)議:未經(jīng)許可使用內(nèi)容訓(xùn)練模型

生成式人工智能在搜集和使用訓(xùn)練用數(shù)據(jù)集方面存在未經(jīng)許可使用個(gè)體或機(jī)構(gòu)數(shù)據(jù)以及版權(quán)保護(hù)內(nèi)容的巨大爭(zhēng)議。

如前所述,生成式人工智能模型主要基于數(shù)據(jù)爬蟲(chóng)軟件從互聯(lián)網(wǎng)爬取的文本、聲音、計(jì)算機(jī)代碼、圖像等數(shù)據(jù)集訓(xùn)練。已有壟斷性大模型在爬取數(shù)據(jù)時(shí)大多未事先取得個(gè)體和機(jī)構(gòu)的許可,易引發(fā)廣泛且深刻的知識(shí)產(chǎn)權(quán)爭(zhēng)議和法律糾紛。這種行為已被控違反了包括歐盟《公用數(shù)據(jù)保護(hù)條例》(European Union,2016)在內(nèi)的數(shù)據(jù)保護(hù)法,已進(jìn)入法律訴訟的案例集中在新聞媒體行業(yè)。2023 年 10 月底,代表 2200 多個(gè)新聞出版?zhèn)€體和組織權(quán)益的美國(guó)新聞媒體聯(lián)盟指控 ChatGPT 借助爬蟲(chóng)軟件,爬取數(shù)以百萬(wàn)計(jì)的付費(fèi)新聞報(bào)道和報(bào)告作為訓(xùn)練語(yǔ)料,但未征得版權(quán)擁有者許可,并通過(guò)法律程序要求 Crawl Common 刪除非法搜集的內(nèi)容(Robertson, 2023)。生成式預(yù)訓(xùn)練模型未經(jīng)數(shù)據(jù)擁有者許可使用網(wǎng)絡(luò)數(shù)據(jù)的做法被進(jìn)一步質(zhì)疑侵犯了用戶(hù)的“數(shù)據(jù)遺忘權(quán)”,即數(shù)據(jù)擁有者有權(quán)要求有關(guān)產(chǎn)品和平臺(tái)刪除未經(jīng)許可搜集的數(shù)據(jù)。但在基礎(chǔ)模型研發(fā)領(lǐng)域,一旦用戶(hù)數(shù)據(jù)被基礎(chǔ)模型用作訓(xùn)練轉(zhuǎn)換器,已生成的模型從技術(shù)上不存在反學(xué)習(xí)(unlearning)的可能性,不可能從平臺(tái)輸出中刪除基于用戶(hù)數(shù)據(jù)的深度學(xué)習(xí)結(jié)果,包括反映數(shù)據(jù)擁有者觀點(diǎn)、語(yǔ)言文化習(xí)慣等特征的應(yīng)答(Zhang, 2023)。

(四)模型架構(gòu)解釋性爭(zhēng)議:使用不可解釋的模型生成內(nèi)容輸出

生成式人工智能采用的人工神經(jīng)網(wǎng)絡(luò)模型一直存在模型架構(gòu)“黑盒”的缺陷,在人工神經(jīng)節(jié)點(diǎn)的節(jié)點(diǎn)數(shù)和節(jié)點(diǎn)層數(shù)、參數(shù)定義及其計(jì)算方法等方面不可解釋?zhuān)@一爭(zhēng)議在生成式人工智能的近期突破中得到放大。盡管生成式人工智能包括算法在內(nèi)的總體技術(shù)路徑具有一定的可解釋性,但難以解釋具體模型尤其是模型的具體參數(shù)及其在決定內(nèi)容輸出中的權(quán)重。GPT-4 等基礎(chǔ)模型,通過(guò)數(shù)以十億級(jí)的參數(shù)及其權(quán)重界定復(fù)雜學(xué)習(xí)過(guò)程識(shí)別模式并決定基于模型識(shí)別的應(yīng)答輸出,導(dǎo)致難以解釋某一預(yù)訓(xùn)練模型為什么生成特定的輸出。基礎(chǔ)模型的主要迭代路徑仍依賴(lài)參數(shù)數(shù)量和模型架構(gòu)復(fù)雜性的增加,其不可解釋性問(wèn)題會(huì)更加嚴(yán)重。

基礎(chǔ)模型客觀存在的技術(shù)不可解釋性與提供商不愿公開(kāi)必要技術(shù)指標(biāo)的主觀行為相交織,給監(jiān)管機(jī)構(gòu)和獨(dú)立研究人員檢測(cè)模型的有意風(fēng)險(xiǎn)和無(wú)意危害造成難以克服的障礙。斯坦福大學(xué)針對(duì)基礎(chǔ)模型的核心技術(shù)要素研制了基礎(chǔ)模型透明性指數(shù)(Bommasani, 2023)。該大學(xué)基于該指標(biāo)體系對(duì)十多個(gè)主流基礎(chǔ)模型的透明性作了綜合評(píng)估。其中,三個(gè)主要壟斷性生成式人工智能基礎(chǔ)模型的透明性得分見(jiàn)表 1。基礎(chǔ)模型的不可解釋性和風(fēng)險(xiǎn)的不可檢測(cè)性導(dǎo)致其產(chǎn)生錯(cuò)誤時(shí)無(wú)法追溯原因且無(wú)法通過(guò)透明機(jī)制評(píng)估和防范風(fēng)險(xiǎn)。為此,有專(zhuān)家建議不能將生成式人工智能用于高風(fēng)險(xiǎn)任務(wù)。

圖片

(五)基礎(chǔ)模型理解力爭(zhēng)議:生成式人工智能不理解語(yǔ)義和真實(shí)世界

生成式人工智能借助概率對(duì)文本上下文進(jìn)行模式識(shí)別,根據(jù)句法規(guī)則生成文本內(nèi)容。但因其不理解語(yǔ)言的語(yǔ)義(semantics),容易生成關(guān)于事實(shí)性、史實(shí)性甚至科學(xué)性錯(cuò)誤輸出內(nèi)容幻象(hallucination)。根據(jù)代碼托管平臺(tái) GitHub(2023)基于英文問(wèn)答的測(cè)算,ChatGPT 系列平臺(tái)的出錯(cuò)率在 3%~3.5% 區(qū)間,Llama 系列平臺(tái)出錯(cuò)率為 5.1%~5.9%,谷歌 PaLM 平臺(tái)出錯(cuò)率為 12.1%?;谥形牡绕渌Z(yǔ)言的出錯(cuò)率應(yīng)顯著高于這一范圍。缺乏堅(jiān)實(shí)基礎(chǔ)知識(shí)的未成年學(xué)生通過(guò)與生成式人工智能平臺(tái)的獨(dú)立對(duì)話(huà)開(kāi)展學(xué)習(xí),會(huì)將學(xué)生置于一種基于不確信內(nèi)容開(kāi)展學(xué)習(xí)的爭(zhēng)議境地。這一局限意味著基于目前技術(shù)的生成式人工智能不能被用作可靠的教學(xué)內(nèi)容來(lái)源。此外,生成式人工智能也不能借助句法理解文本和圖像等格式背后的現(xiàn)實(shí)世界、物體及其關(guān)系、人類(lèi)和社會(huì)關(guān)系、人與物體的關(guān)系或人與技術(shù)的關(guān)系的真正意義。迄今為止,人類(lèi)主要的科學(xué)發(fā)現(xiàn)方法主要是基于對(duì)真實(shí)世界的觀察、科學(xué)實(shí)驗(yàn)和科學(xué)推理。生成式人工智能主要基于對(duì)已有文獻(xiàn)的綜述生成新內(nèi)容,除非用戶(hù)基于自身能動(dòng)性并借助人工智能輔助發(fā)現(xiàn)知識(shí),否則生成式人工智能不能輸出新知識(shí)。依據(jù)目前各主要國(guó)家的版權(quán)保護(hù)法,生成式人工智能生成的內(nèi)容并不被認(rèn)可為“知識(shí)”。與此關(guān)聯(lián),現(xiàn)有基礎(chǔ)模型為現(xiàn)實(shí)世界的具體復(fù)雜挑戰(zhàn)提供有針對(duì)性或創(chuàng)新性的解決方案方面表現(xiàn)不佳(Candelon, 2023),更不能作出社會(huì)價(jià)值判斷。故而,目前生成式人工智能尚不能脫離人類(lèi)教師成為引導(dǎo)學(xué)生復(fù)雜知識(shí)學(xué)習(xí)和結(jié)構(gòu)不良問(wèn)題解決的獨(dú)立導(dǎo)學(xué)系統(tǒng)。

上述技術(shù)局限會(huì)限制生成式人工智能變革教育的正面支持價(jià)值。生成式人工智能的現(xiàn)有技術(shù)性能在基礎(chǔ)性教育內(nèi)容提供、高階思維和復(fù)雜問(wèn)題解決過(guò)程導(dǎo)學(xué)、價(jià)值觀引導(dǎo)或育人實(shí)踐等領(lǐng)域可提供的變革性影響有限。目前,生成式人工智能對(duì)教育變革的作用似乎更多體現(xiàn)在通過(guò)逆向挑戰(zhàn)學(xué)習(xí)結(jié)果和評(píng)價(jià)方式倒逼教育改革:生成式人工智能提高了內(nèi)容加工的自動(dòng)化程度和防偽難度,降低了低階內(nèi)容綜述和作品制作作為核心學(xué)習(xí)結(jié)果的必要價(jià)值。處于低水平思維階段的基本拼寫(xiě)和句法、文獻(xiàn)綜述報(bào)告、演示文稿制作、低階藝術(shù)作品制作等在形成性評(píng)價(jià)和低利害性考試中的占比降低,將會(huì)倒逼教育系統(tǒng)重新界定學(xué)習(xí)結(jié)果的側(cè)重點(diǎn)和相應(yīng)的評(píng)價(jià)方式。

(六)生成性信息污染爭(zhēng)議:技術(shù)合成內(nèi)容污染互聯(lián)網(wǎng)

生成式人工智能輸出和傳播的內(nèi)容對(duì)互聯(lián)網(wǎng)的污染體現(xiàn)在以下兩方面。

一方面,生成式人工智能存在通過(guò)生成和傳播不良內(nèi)容、污染互聯(lián)網(wǎng)信息的爭(zhēng)議。目前基礎(chǔ)模型訓(xùn)練均從互聯(lián)網(wǎng)提取訓(xùn)練用數(shù)據(jù)集,充斥互聯(lián)網(wǎng)的有害信息、錯(cuò)誤信息、歧視信息、憎恨言論等會(huì)被轉(zhuǎn)換成有害信息再次輸出并通過(guò)互聯(lián)網(wǎng)二次傳播,會(huì)對(duì)不同年齡學(xué)習(xí)者造成難以逆轉(zhuǎn)的污染。

另一方面,被機(jī)器合成內(nèi)容污染的互聯(lián)網(wǎng)會(huì)影響后續(xù)基礎(chǔ)模型的培訓(xùn)。優(yōu)質(zhì)的深度學(xué)習(xí)模型依賴(lài)于人類(lèi)產(chǎn)生的高個(gè)性化數(shù)據(jù),它通過(guò)從人類(lèi)創(chuàng)造和使用的差異性表達(dá)方式中識(shí)別和學(xué)習(xí)高差異化的句法和模式,以維持機(jī)器的深度學(xué)習(xí)進(jìn)程并生成帶有模式差異的輸出。生成式人工智能大規(guī)模生成的內(nèi)容經(jīng)互聯(lián)網(wǎng)的二次傳播導(dǎo)致后續(xù)的基礎(chǔ)模型不可避免地從其先前生成的內(nèi)容中學(xué)習(xí)。在基于技術(shù)自身生產(chǎn)的數(shù)據(jù)開(kāi)展訓(xùn)練的進(jìn)程中,已有統(tǒng)計(jì)模型的高概率事件會(huì)被過(guò)度高估、低概率事件會(huì)被過(guò)度低估,導(dǎo)致訓(xùn)練用數(shù)據(jù)集中低概率事件的(統(tǒng)計(jì)曲線(xiàn))長(zhǎng)尾逐步消失。而訓(xùn)練數(shù)據(jù)的小概率長(zhǎng)尾在提高內(nèi)容輸出的準(zhǔn)確性和差異性方面具有重要價(jià)值,其消失導(dǎo)致的模型過(guò)于強(qiáng)化先前識(shí)別的模型會(huì)引發(fā)模型的性能衰退,主要表現(xiàn)為越來(lái)越多地生成與機(jī)器合成內(nèi)容趨同而非擬合現(xiàn)實(shí)內(nèi)容的同質(zhì)應(yīng)答,出錯(cuò)率上升,最終可能導(dǎo)致模型坍塌。這對(duì)后續(xù)的基礎(chǔ)模型開(kāi)發(fā)者提取優(yōu)質(zhì)互聯(lián)網(wǎng)訓(xùn)練數(shù)據(jù)提出更大的挑戰(zhàn)(Lutkevich, 2023)。

(七)生成性?xún)r(jià)值觀投射爭(zhēng)議:同質(zhì)化輸出內(nèi)容的價(jià)值觀和語(yǔ)言文化壓制

生成式人工智能輸出內(nèi)容的趨同性?xún)r(jià)值觀投射會(huì)壓制數(shù)字弱勢(shì)群體和教育領(lǐng)域知識(shí)建構(gòu)的多元性和多元化觀點(diǎn)表達(dá)。

如果一個(gè)字符串在訓(xùn)練用數(shù)據(jù)集中頻繁出現(xiàn),轉(zhuǎn)換器傾向于在其輸出中重復(fù)這些字符及其連綴成的語(yǔ)句。ChatGPT 等壟斷性基礎(chǔ)模型采用的歐美數(shù)據(jù)集中表達(dá)的共識(shí)性觀點(diǎn)、主流信念或主流媒體主導(dǎo)性觀念等都會(huì)被識(shí)別為與這些價(jià)值觀和語(yǔ)言文化習(xí)慣擬合的“標(biāo)準(zhǔn)答案”輸出,從而形成越是互聯(lián)網(wǎng)強(qiáng)勢(shì)價(jià)值觀和語(yǔ)言文化習(xí)慣越會(huì)在生成式人工智能輸出中得到強(qiáng)化的反饋閉環(huán)。如果不辨析生成式人工智能平臺(tái)所用訓(xùn)練數(shù)據(jù)集的文化和語(yǔ)言來(lái)源,大量盲目采用當(dāng)前壟斷性基礎(chǔ)模型,會(huì)強(qiáng)化美歐價(jià)值觀及其文化刻板印象。例如,醫(yī)學(xué)領(lǐng)域?qū)?ChatGPT-3、ChatGPT-4、詩(shī)人大模型和 Anthronopic 公司的 Claude 大模型問(wèn)答結(jié)果的大量反復(fù)檢測(cè)發(fā)現(xiàn),這些基礎(chǔ)模型在回答有關(guān)肺活量、估算腎小球?yàn)V過(guò)率、皮膚厚度、腦容量等客觀醫(yī)學(xué)問(wèn)題時(shí),均會(huì)生成基于黑人和白人種族刻板印象的偏見(jiàn)性答案(Omiye, 2023)。相反,數(shù)據(jù)貧窮群體包括邊緣群體中的在線(xiàn)數(shù)字化“足跡”稀少,在基礎(chǔ)模型訓(xùn)練數(shù)據(jù)集中的占比很小,其價(jià)值觀和語(yǔ)言文化習(xí)慣無(wú)法被基礎(chǔ)模式加工、識(shí)別和強(qiáng)化。如果沒(méi)有突出語(yǔ)言文化多樣性的本地模型的強(qiáng)勢(shì)出現(xiàn),歐美基礎(chǔ)模型的全球壟斷會(huì)危及土著語(yǔ)言和文化的可持續(xù)發(fā)展和弱勢(shì)群體的合法利益(苗逢春,2023)。

另外,過(guò)分依賴(lài)生成式人工智能尋求“標(biāo)準(zhǔn)答案”或問(wèn)題解決方案,會(huì)導(dǎo)致觀點(diǎn)的趨同性,削弱多樣性創(chuàng)新觀點(diǎn)的建構(gòu)。波士頓咨詢(xún)集團(tuán)針對(duì) 750 多名被試的研究發(fā)現(xiàn),借助 ChatGPT-4 尋求創(chuàng)新方案的被試所形成觀點(diǎn)的多樣性比不使用者低 41%,而且被試收到 ChatGPT-4 提供的建議后多缺乏增加觀點(diǎn)多樣性的意愿。同時(shí),70% 的被調(diào)查者認(rèn)為長(zhǎng)期使用生成式人工智能尋求答案會(huì)導(dǎo)致人類(lèi)創(chuàng)造能力的退化(Candelon, 2023)。

(八)助長(zhǎng)違法性深偽爭(zhēng)議:助推“更深”的深偽的生成與傳播

生成式人工智能極大地降低了生成違法性深偽(deeper deepfakes)內(nèi)容的技術(shù)和成本門(mén)檻,提高了識(shí)別深偽的技術(shù)難度,助推了違法性深偽的合成與傳播。

生成式人工智能可支持新聞編輯能力低、零音樂(lè)和視頻制作的用戶(hù)獲得零基礎(chǔ)、零成本制作和發(fā)布高仿真深偽內(nèi)容的能力,包括模仿真人的語(yǔ)言風(fēng)格生成虛假新聞或網(wǎng)絡(luò)消息用以傳播虛假信息、宣傳憎恨言論或詆毀他人,或通過(guò)修改和操縱已有圖像和視頻生成難辨真假的偽造視頻非法牟利或達(dá)到其他不法目的等。換言之,生成式人工智能也許尚不能為解決人類(lèi)面臨的公益問(wèn)題提供有效解決方案,但已為別有用心者借助深偽內(nèi)容產(chǎn)品達(dá)到違法目的提供了低成本便捷工具。根據(jù)“2023 深偽狀態(tài)報(bào)告”(Home Security Hero, 2023)的統(tǒng)計(jì)和分析,借助生成式人工智能,只需一張清晰的面部照片,平均不到 25 分鐘就可零成本生成一段 60 秒長(zhǎng)的色情深偽視頻;由于生成式人工智能的助推,2023 年新增在線(xiàn)深偽視頻達(dá)近一百萬(wàn)段,是 2019 年的 5.5 倍;在所有深偽視頻中,色情類(lèi)深偽視頻占 98%,其中借助女性肖像生成的占 99%。

三、管制建議

為應(yīng)對(duì)生成式人工智能引發(fā)的上述基本爭(zhēng)議并挖掘其教育潛能,《指南》提出了以人為本的人工智能開(kāi)發(fā)和應(yīng)用指導(dǎo)原則,并遵循“優(yōu)先管制、確保包容、引導(dǎo)應(yīng)用”的邏輯路徑,確保合乎倫理、安全可信、公平包容和富有意義的應(yīng)用。

(一)以人為本的人工智能治理與應(yīng)用取向

自 2019 年以來(lái),聯(lián)合國(guó)教科文組織一直倡導(dǎo)以人為本的人工智能研發(fā)和應(yīng)用取向,并通過(guò)《人工智能倫理問(wèn)題建議書(shū)》(UNESCO, 2022)、《關(guān)于人工智能與教育的北京共識(shí)》(UNESCO, 2019)、《人工智能與教育:決策者指南》(Miao, 2022)等多份文獻(xiàn)對(duì)以人為本的人工智能的應(yīng)用取向進(jìn)行了系統(tǒng)深入的界定。要義如下:人工智能的應(yīng)用與治理須以人為本,確保人的基本權(quán)利、尊嚴(yán)和文化多樣性,并追求人與環(huán)境和生態(tài)系統(tǒng)協(xié)調(diào)發(fā)展的生物中心主義(bio-centred)發(fā)展觀;人工智能的開(kāi)發(fā)應(yīng)以技術(shù)服務(wù)于人為目的,確保人工智能致力于增強(qiáng)人類(lèi)進(jìn)行有效人機(jī)協(xié)作所需的能力;人工智能系統(tǒng)設(shè)計(jì)、開(kāi)發(fā)、應(yīng)用、迭代的全生命周期應(yīng)以確保人機(jī)互動(dòng)的人類(lèi)主體能動(dòng)性為原則,確保人工智能系統(tǒng)及其應(yīng)用的安全可信性(trustable)、主體和領(lǐng)域適用性(proportional)、可解釋性(explainable)、人類(lèi)可控性(human-controlled)、人類(lèi)問(wèn)責(zé)(human-accountable)(苗逢春,2022)。

(二)生成式人工智能的治理路線(xiàn)圖

《指南》建議制定和實(shí)施政府一體化、明確跨領(lǐng)域和行業(yè)的主體責(zé)權(quán)和義務(wù)的協(xié)同共治策略。

1. 協(xié)商跨國(guó)通用數(shù)據(jù)保護(hù)法等國(guó)際法規(guī)

協(xié)商和制定跨國(guó)互認(rèn)的通用數(shù)據(jù)保護(hù)法和跨境治理機(jī)制是應(yīng)對(duì)轄域內(nèi)治理失序的必要國(guó)際共治前提。歐盟的《通用數(shù)據(jù)保護(hù)法》(簡(jiǎn)稱(chēng)《保護(hù)法》)為針對(duì)跨境數(shù)據(jù)服務(wù)開(kāi)展轄域內(nèi)治理提供了國(guó)際法律框架的先例。

2. 制定政府一體化的跨部門(mén)、跨領(lǐng)域人工智能發(fā)展戰(zhàn)略和倫理共治機(jī)制

政府一體化的人工智能發(fā)展戰(zhàn)略是保證本國(guó)各領(lǐng)域和各部門(mén)協(xié)同治理人工智能的關(guān)鍵機(jī)制。其中,人工智能倫理治理機(jī)制需清晰界定國(guó)家數(shù)據(jù)主權(quán)、機(jī)構(gòu)和個(gè)體數(shù)據(jù)擁有權(quán)與隱私等核心權(quán)益、合法的數(shù)據(jù)要素生產(chǎn)關(guān)系、人工智能技術(shù)開(kāi)發(fā)和應(yīng)用的核心倫理原則以及基于公共和他人數(shù)據(jù)生產(chǎn)的人工智能產(chǎn)品剩余價(jià)值分配關(guān)系等。

3. 研制針對(duì)生成式人工智能的專(zhuān)門(mén)管理辦法

2023 年 7 月,中國(guó)發(fā)布了《生成式人工智能暫行管理辦法》(簡(jiǎn)稱(chēng)《管理辦法》),是全球首部對(duì)生成式人工智能進(jìn)行服務(wù)轄區(qū)管制的正式法規(guī)。該法規(guī)可進(jìn)一步借鑒《指南》以及歐洲與美國(guó)近期的立法舉措,修改完善其中的諸多法律和倫理要點(diǎn)。其中與教育應(yīng)用息息相關(guān)的要點(diǎn)有以下方面:

1)對(duì)生成式人工智能的安全風(fēng)險(xiǎn)進(jìn)行技術(shù)分類(lèi)和分級(jí)監(jiān)管。歐洲議會(huì)頒布的《人工智能法案》草案將人工智能系統(tǒng)對(duì)人類(lèi)安全和基本權(quán)利等的風(fēng)險(xiǎn)分成不可接受的風(fēng)險(xiǎn)(包括引誘未成年對(duì)人工智能聊天平臺(tái)產(chǎn)生依賴(lài)的技術(shù)、情感識(shí)別技術(shù)、智力和行為預(yù)測(cè)人工智能等)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和輕微風(fēng)險(xiǎn)四類(lèi),并針對(duì)不同類(lèi)型采取禁用(禁止開(kāi)發(fā)和投入市場(chǎng))、重點(diǎn)監(jiān)管(教育領(lǐng)域?qū)僦攸c(diǎn)監(jiān)管領(lǐng)域)、審查監(jiān)督和行業(yè)自律的分級(jí)監(jiān)管措施。

2)未成年人獨(dú)立使用生成式人工智能聊天的年齡限制?;诹奶祛A(yù)訓(xùn)練模型會(huì)生成不適合未成年人的輸出等安全隱患,《指南》建議各國(guó)將 13 歲設(shè)為未成年人獨(dú)立使用生成式人工智能聊天服務(wù)的年齡下限,并考慮 16 歲的更嚴(yán)格年齡限制。最近,生成式人工智能的技術(shù)服務(wù)方式開(kāi)始實(shí)現(xiàn)從基于平臺(tái)的聊天服務(wù)向手機(jī)等個(gè)人終端應(yīng)用軟件的延伸,監(jiān)管部門(mén)和成人將更難監(jiān)督未成年人的獨(dú)立聊天安全隱患?!豆芾磙k法》的修訂需深入研判相關(guān)風(fēng)險(xiǎn),明確對(duì)成年人獨(dú)立使用生成式人工智能聊天類(lèi)軟件的多方監(jiān)管責(zé)任。

3)明確其他責(zé)任主體的責(zé)任和義務(wù)?!豆芾磙k法》的具體條款主要針對(duì)的是生成式人工智能提供商,而美國(guó)的“行政命令”則較為全面地對(duì)各類(lèi)應(yīng)用機(jī)構(gòu)的集體責(zé)任和義務(wù)作了界定?!豆芾磙k法》的修訂應(yīng)明確集中采購(gòu)和部署生成式人工智能系統(tǒng)的機(jī)構(gòu)在協(xié)同審核數(shù)據(jù)、工具和內(nèi)容服務(wù)合法性等方面的共治職責(zé),并協(xié)助開(kāi)展對(duì)用戶(hù)尤其是弱勢(shì)群體影響的動(dòng)態(tài)監(jiān)督和評(píng)估;在明確機(jī)構(gòu)治理責(zé)任的基礎(chǔ)上,考慮個(gè)體用戶(hù)應(yīng)用相關(guān)技術(shù)應(yīng)履行的法律和倫理責(zé)任,包括個(gè)體對(duì)其潛在威脅和自我安全保障的基本意識(shí)和技能、合乎法律法規(guī)地使用相關(guān)工具和生成內(nèi)容的知識(shí)和技能等。

4)對(duì)人工智能生成內(nèi)容的版權(quán)識(shí)別和應(yīng)用范疇界定?!豆芾磙k法》要求“提供者應(yīng)當(dāng)按照《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》對(duì)圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)識(shí)”,歐盟的《保護(hù)法》要求明確標(biāo)注說(shuō)明人工智能生成的內(nèi)容。然而,上述三份最有針對(duì)性的法律法規(guī)均未對(duì)人工智能生成的內(nèi)容產(chǎn)品的合法使用作出清晰界定?!叭绾斡行拗品欠ㄐ陨顐蝺?nèi)容的生成和傳播”“付費(fèi)生成內(nèi)容產(chǎn)品的用戶(hù)對(duì)內(nèi)容的擁有權(quán)如何界定和如何保護(hù)”“借助生成式人工智能文獻(xiàn)綜述支持人類(lèi)主導(dǎo)的科研活動(dòng)與完全違背學(xué)術(shù)道德或教學(xué)紀(jì)律的生成式人工智能作弊之間如何劃定界限及如何識(shí)別”等都是有待深入研判的監(jiān)管難題。

四、確保生成式人工智能有效教育應(yīng)

用的政策和實(shí)踐建議 

《指南》對(duì)確保生成式人工智能有效教育應(yīng)用的政策和實(shí)踐提出了詳細(xì)建議,要點(diǎn)如下:

(一)確保包容、公平、語(yǔ)言與文化多樣性

生成式人工智能與包容、公平、語(yǔ)言與文化多樣等人本原則的雙向關(guān)系包含以下政策和實(shí)踐意蘊(yùn)。1)包容公平的技術(shù)使用權(quán)和使用機(jī)會(huì)是借助人工智能促進(jìn)教育公平包容的前提:應(yīng)確保無(wú)論何種性別、種族、能力水平、社會(huì)經(jīng)濟(jì)地位或有無(wú)固定居住地的人群都有能包容性地使用人工智能的機(jī)會(huì)。為此,各國(guó)應(yīng)借鑒前述“數(shù)據(jù)貧窮成因分類(lèi)目錄”精準(zhǔn)確定缺乏使用人工智能機(jī)會(huì)的人群及其成因,并采取專(zhuān)項(xiàng)措施補(bǔ)齊短板,縮小數(shù)字鴻溝。2)面向不同能力水平和年齡階段終身學(xué)習(xí)者的包容:通過(guò)專(zhuān)項(xiàng)經(jīng)費(fèi)開(kāi)發(fā)和推廣有針對(duì)性的人工智能技術(shù)和工具,滿(mǎn)足有特殊需要和不同能力水平的群體和不同年齡段的學(xué)習(xí)者的終身學(xué)習(xí)需要。3)確保數(shù)據(jù)和技術(shù)去偏:生成式人工智能評(píng)估體系應(yīng)該重點(diǎn)考核數(shù)據(jù)來(lái)源和數(shù)據(jù)預(yù)處理、模型設(shè)計(jì)和輸出內(nèi)容中的性別偏見(jiàn)、特殊群體刻板印象、邊緣群體歧視、憎恨言論等。4)倡導(dǎo)開(kāi)發(fā)具有語(yǔ)言文化多樣的基礎(chǔ)模型:制定和實(shí)施確保生成式人工智能語(yǔ)言文化多樣性的指標(biāo)體系,確保預(yù)訓(xùn)練數(shù)據(jù)集、模型架構(gòu)和訓(xùn)練方法對(duì)少數(shù)或土著語(yǔ)言文化的包容性,嚴(yán)禁提供商有意或無(wú)意從預(yù)訓(xùn)練數(shù)據(jù)中剔除少數(shù)族群的語(yǔ)言和添加帶有語(yǔ)言文化偏見(jiàn)的數(shù)據(jù)過(guò)濾或輸出的后處理技術(shù)。

(二)保護(hù)主體能動(dòng)性

由于生成式人工智能性能日益精細(xì)并在一定程度上部分替代人類(lèi)的初級(jí)內(nèi)容加工活動(dòng),其教育應(yīng)用存在壓制人類(lèi)能動(dòng)性的可能。借助生成式人工智能工具撰寫(xiě)論文和提交基礎(chǔ)藝術(shù)作品帶來(lái)的便利,會(huì)誘使學(xué)生對(duì)借助工具加工外部?jī)?nèi)容形成依賴(lài)。對(duì)外部創(chuàng)作的長(zhǎng)期依賴(lài)會(huì)使學(xué)生失去鍛煉心智和形成基礎(chǔ)知識(shí)、基本技能的機(jī)會(huì)。為此,保護(hù)和增強(qiáng)人類(lèi)的能動(dòng)性應(yīng)是設(shè)計(jì)和采用任何人工智能技術(shù)的核心原則,應(yīng)堅(jiān)守生成式人工智能可被用于挑戰(zhàn)和拓展人類(lèi)的思維,但決不能用來(lái)篡越人類(lèi)思維活動(dòng)的底線(xiàn)原則?!吨改稀方ㄗh從以下方面界定人機(jī)互動(dòng)的主體性,保護(hù)生成式人工智能教育應(yīng)用的師生能動(dòng)性:1)明確告知生成式人工智能會(huì)搜集和使用的學(xué)生數(shù)據(jù)類(lèi)型、數(shù)據(jù)將被如何使用以及相關(guān)數(shù)據(jù)應(yīng)用會(huì)對(duì)其教育和社會(huì)生活的影響;2)保護(hù)學(xué)生成長(zhǎng)和學(xué)習(xí)的內(nèi)部動(dòng)機(jī),強(qiáng)化人類(lèi)在基于日益復(fù)雜的人工智能系統(tǒng)開(kāi)展教和學(xué)中的決策和行為自主性;3)防止生成式人工智能的使用剝奪學(xué)生通過(guò)觀察現(xiàn)實(shí)世界、實(shí)證方法(如實(shí)驗(yàn)、與他人的討論等)和邏輯推理發(fā)展其認(rèn)知能力和社會(huì)技能的機(jī)會(huì);4)在學(xué)習(xí)活動(dòng)中確保學(xué)生有足夠的社會(huì)互動(dòng)和接觸人類(lèi)創(chuàng)作作品的機(jī)會(huì),防止學(xué)生過(guò)度依賴(lài)生成式人工智能或成癮;5)在審核并決定是否大規(guī)模采納生成式人工智能工具前,充分咨詢(xún)研究人員、教師和學(xué)生的意見(jiàn);6)鼓勵(lì)學(xué)生和教師批判和質(zhì)疑生成式人工智能背后采用的技術(shù)方法、輸出內(nèi)容的準(zhǔn)確性、隱含的價(jià)值觀以及對(duì)教學(xué)方法和過(guò)程的潛在影響等;7)師生在借助人工智能作決策和選擇時(shí),應(yīng)避免將人類(lèi)的決策責(zé)任讓渡給生成式人工智能系統(tǒng)。

(三)審核監(jiān)控教育生成式人工智能工具與開(kāi)發(fā)本地適用性教育基礎(chǔ)模型

教育生成式人工智能工具的開(kāi)發(fā)和部署在遵循“設(shè)計(jì)倫理”指導(dǎo)原則的基礎(chǔ)上,應(yīng)從人工智能系統(tǒng)的全生命周期出發(fā),避免具有潛在技術(shù)和倫理風(fēng)險(xiǎn)或不具備對(duì)教學(xué)適用性的人工智能技術(shù)對(duì)師生和各類(lèi)教育主體關(guān)系的影響。針對(duì)已有生成式人工智能的教育應(yīng)用,《指南》建議通過(guò)以下機(jī)制開(kāi)展審核、準(zhǔn)入和全程監(jiān)控:在準(zhǔn)入審查中強(qiáng)化倫理檢測(cè),考核生成式人工智能系統(tǒng)是否有去除偏見(jiàn)尤其是性別偏見(jiàn)的技術(shù)和機(jī)制、是否采用代表語(yǔ)言文化多樣性的訓(xùn)練數(shù)據(jù)集;在給予準(zhǔn)入權(quán)限前,確保被審查的系統(tǒng)不會(huì)對(duì)師生產(chǎn)生可預(yù)測(cè)的傷害,提高教育有效性、針對(duì)不同年齡和能力學(xué)生的適用性并符合教育機(jī)構(gòu)確認(rèn)的教學(xué)原則(如適用于相關(guān)的知識(shí)技能類(lèi)型、預(yù)期的學(xué)習(xí)結(jié)果和價(jià)值觀培養(yǎng)目標(biāo)等);采取有效措施解決數(shù)據(jù)使用和服務(wù)許可授權(quán)等難題。例如,針對(duì)未成年人和殘障人士等不具備完全刑事能力的主體,如果其被告知數(shù)據(jù)隱私和安全等風(fēng)險(xiǎn)的前提下被授權(quán)使用數(shù)據(jù)和接受服務(wù)的難題等;審查生成式人工智能輸出內(nèi)容中是否含有深偽圖像、虛假新聞或憎恨言論等不良或非法信息;結(jié)合當(dāng)?shù)氐沫h(huán)境影響評(píng)估結(jié)果,分析生成式人工智能系統(tǒng)教育應(yīng)用的環(huán)境成本,尤其是模型訓(xùn)練的電耗和水耗等因素。

現(xiàn)有壟斷性大模型對(duì)歐美之外其他國(guó)家的語(yǔ)言文化適用性較低,在保障對(duì)合法國(guó)際競(jìng)爭(zhēng)的前提下,應(yīng)采取積極自主的開(kāi)發(fā)策略提高教育生成式人工智能的本地適用性;在鼓勵(lì)版權(quán)自主、安全可控的本國(guó)基礎(chǔ)模型開(kāi)發(fā)基礎(chǔ)上,支持基于本地價(jià)值觀、語(yǔ)言文化多樣性和本國(guó)課程標(biāo)準(zhǔn)的教育生成式預(yù)訓(xùn)練轉(zhuǎn)換器(EdGPT)或教育大模型的研制、試用與迭代;通過(guò)激勵(lì)機(jī)制鼓勵(lì)開(kāi)發(fā)基于本國(guó)基礎(chǔ)模型的面向探究性學(xué)習(xí)和多樣化學(xué)習(xí)選擇等需求的生成式人工智能教育平臺(tái)和應(yīng)用插件,培育基于本國(guó)語(yǔ)言文化多樣性和課程標(biāo)準(zhǔn)、基礎(chǔ)模型與中下游應(yīng)用軟件同步的教育生成式人工智能生態(tài)系統(tǒng)。

(四)培養(yǎng)師生的人工智能能力

培養(yǎng)學(xué)生尤其是中小學(xué)生的人工智能能力對(duì)確保學(xué)生安全、符合倫理和有意義地應(yīng)用人工智能至關(guān)重要。截至 2022 年中,全球只有約 15 個(gè)國(guó)家制定并通過(guò)國(guó)家認(rèn)可的中小學(xué)人工智能課程(UNESCO, 2022)。隨著生成式人工智能的迅速推廣應(yīng)用,培養(yǎng)面向所有人的基礎(chǔ)性人工智能素養(yǎng)(AI Literacy)的需求更加迫切。聯(lián)合國(guó)教科文組織正在研制的“中小學(xué)生人工智能能力框架”,從“能力表現(xiàn)”和“能力層面”兩個(gè)維度界定可通過(guò)課堂教學(xué)和課外課程結(jié)合的方式培養(yǎng)的中小學(xué)生人工智能能力。能力表現(xiàn)維度包括“人工智能觀念”“人工智能倫理”“人工智能底層技術(shù)與應(yīng)用”“人工智能系統(tǒng)設(shè)計(jì)”;能力層面維度則從對(duì)相關(guān)知識(shí)、技能和情感態(tài)度的“理解”“應(yīng)用”和“創(chuàng)造”三個(gè)方面界定學(xué)生的能力表現(xiàn)(見(jiàn)表 2)。

圖片

與此同時(shí),聯(lián)合國(guó)教科文組織在組織研制中小學(xué)教師人工智能能力框架,旨在引導(dǎo)各國(guó)制定相關(guān)標(biāo)準(zhǔn)和教師培訓(xùn)課程以支持教師做好合理應(yīng)用生成式人工智能的能力準(zhǔn)備(見(jiàn)表 3)。該框架倡議從以下能力層面界定教師的能力:人本人工智能觀念、人工智能倫理、人工智能基礎(chǔ)與應(yīng)用、人工智能與教學(xué)整合和人工智能支持教師專(zhuān)業(yè)發(fā)展,并建議從“獲取”“深化”和“創(chuàng)造”三個(gè)水平劃分不同能力背景的教師通過(guò)培訓(xùn)可以達(dá)到的能力表現(xiàn)。其中,“獲取”水平是預(yù)期所有教師經(jīng)過(guò)培訓(xùn)均能達(dá)到的能力表現(xiàn),包括缺乏人工智能知識(shí)技能準(zhǔn)備的教師以及技術(shù)條件貧乏地區(qū)的教師;“深化”水平是預(yù)期具有中等先前知識(shí)基礎(chǔ)的骨干教師經(jīng)過(guò)培訓(xùn)可以達(dá)到的能力表現(xiàn);“創(chuàng)造”水平針對(duì)在人工智能教育應(yīng)用方面有深厚的知識(shí)技能儲(chǔ)備的教師,預(yù)期經(jīng)過(guò)培訓(xùn)后可以達(dá)到專(zhuān)家的能力表現(xiàn)。

圖片

(五)倡導(dǎo)創(chuàng)造性教學(xué)應(yīng)用并強(qiáng)調(diào)多元觀點(diǎn)建構(gòu)及觀點(diǎn)的多元化表達(dá)

教育擔(dān)負(fù)著維持和促進(jìn)文明延續(xù)和持續(xù)繁榮的歷史使命。實(shí)現(xiàn)這一教育使命的支柱性原則是確保教育過(guò)程中語(yǔ)言文化的多樣化、鼓勵(lì)個(gè)性化觀點(diǎn)的建構(gòu)和多樣化表達(dá)。生成式人工智能通過(guò)復(fù)制或強(qiáng)化訓(xùn)練數(shù)據(jù)擁有者的世界觀和語(yǔ)言文化觀念,壓制多樣性觀點(diǎn)的形成和多元表達(dá),并對(duì)教育的文化多樣性和觀點(diǎn)多元化使命造成直接威脅。為此,借助生成式人工智能查詢(xún)或深化某個(gè)(些)主題教學(xué)的根本前提是:無(wú)論圍繞任何主題開(kāi)展人機(jī)互動(dòng),均不能將生成式人工智能作為權(quán)威的知識(shí)來(lái)源,應(yīng)引導(dǎo)教師和學(xué)生堅(jiān)守對(duì)生成式人工智能輸出內(nèi)容進(jìn)行批判性思維的正確定位,即明確生成式人工智能可用于快速查詢(xún)信息、支持文獻(xiàn)檢索和格式轉(zhuǎn)換,但會(huì)含有不可靠?jī)?nèi)容的信息來(lái)源。在具體教學(xué)中,教師應(yīng)基于主體適用原則設(shè)計(jì)教學(xué)活動(dòng),激勵(lì)和輔助學(xué)生評(píng)價(jià)和批判其輸出內(nèi)容對(duì)價(jià)值觀和語(yǔ)言文化觀念的投射,并借助生成式人工智能在文獻(xiàn)綜述和數(shù)據(jù)加工方面的優(yōu)勢(shì)支持探究性學(xué)習(xí);與此同時(shí),為學(xué)生提供足夠的不依賴(lài)人工智能工具的試錯(cuò)學(xué)習(xí)機(jī)會(huì)、實(shí)證性實(shí)驗(yàn)和對(duì)真實(shí)世界的觀察機(jī)會(huì)。

(六)跨領(lǐng)域跨學(xué)科審視生成式人工智能對(duì)教育的長(zhǎng)遠(yuǎn)影響

盡管本研究對(duì)目前可知的生成式人工智能工作過(guò)程進(jìn)行了概括和追溯,但面對(duì)迅速進(jìn)化的基礎(chǔ)模式和快速裂變的中下游應(yīng)用軟件,以及人類(lèi)教育活動(dòng)的互動(dòng)場(chǎng)景千差萬(wàn)別并充滿(mǎn)不確定性,不能僅基于現(xiàn)有技術(shù)缺陷或單純從消極懷疑論的視角出發(fā)短視地分析其教育影響?!吨改稀方ㄗh教育決策者仍應(yīng)與人工智能研究者和提供商、教育教學(xué)理論研究者、認(rèn)知神經(jīng)科學(xué)等學(xué)科研究人員以及教師、學(xué)生和家長(zhǎng)等合作,跨領(lǐng)域、跨學(xué)科評(píng)判生成式人工智能對(duì)知識(shí)生產(chǎn)和學(xué)習(xí)過(guò)程、版權(quán)與科學(xué)研究、課程與評(píng)價(jià)、人類(lèi)協(xié)作和社會(huì)動(dòng)態(tài)發(fā)展等領(lǐng)域的深遠(yuǎn)影響,并以此為基礎(chǔ)審慎地反思迅速迭代的人工智能技術(shù)對(duì)課程框架、教學(xué)目標(biāo)界定和考試評(píng)價(jià)方式的影響,從而作出相應(yīng)的系統(tǒng)調(diào)適。

面對(duì)一項(xiàng)在內(nèi)容加工功能上出現(xiàn)代際躍遷的人工智能技術(shù),論證其教育潛能的邏輯起點(diǎn)不應(yīng)限于關(guān)于其技術(shù)性能的商業(yè)宣傳,也不應(yīng)始于其在內(nèi)容創(chuàng)作等商業(yè)領(lǐng)域的生產(chǎn)力提升表現(xiàn),仍應(yīng)堅(jiān)守以人為本的基本原則。以此為出發(fā)點(diǎn),教育者辯證分析生成式人工智能系統(tǒng)全生命周期的關(guān)鍵技術(shù)環(huán)節(jié)可能引發(fā)的根本爭(zhēng)議,系統(tǒng)考證和應(yīng)對(duì)其對(duì)公平、包容、價(jià)值觀培養(yǎng)、語(yǔ)言文化多樣性等教育核心價(jià)值的影響,唯此才能避免作為教育主體和教育服務(wù)對(duì)象的人類(lèi)個(gè)體和人類(lèi)群體成為商業(yè)驅(qū)動(dòng)的人工智能技術(shù)的實(shí)驗(yàn)品和仆從者。

圖片

圖片

圖片

圖片

圖片

聲明

  本刊投稿網(wǎng)址:https://openedu.,不向作者收取任何費(fèi)用。

圖片

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶(hù)發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶(hù) 評(píng)論公約

    類(lèi)似文章 更多