日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

教育業(yè)迎戰(zhàn)ChatGPT沖擊:探索“與狼共舞”路徑

 老王abcd 2023-02-13 發(fā)布于廣東

伴隨席卷全球的ChatGPT熱潮,第一批受到?jīng)_擊的教育/學(xué)術(shù)界也開(kāi)始由最初的“如臨大敵”與“嚴(yán)厲禁止”,轉(zhuǎn)而探討如何擁抱并有效規(guī)制新生技術(shù)。

2023年伊始,全球多家頂級(jí)學(xué)術(shù)期刊對(duì)ChatGPT采取了嚴(yán)厲措施。1月26日,權(quán)威學(xué)術(shù)期刊《科學(xué)》的主編索普以社論的形式發(fā)文,宣布正在更新編輯規(guī)則,強(qiáng)調(diào)不能在作品中使用ChatGPT的生成物。1月24日,另一份權(quán)威學(xué)術(shù)期刊《自然》也發(fā)文表示,任何人工智能工具都不會(huì)被接受為研究論文的署名作者。

但2023年2月3日,《自然》發(fā)表的一篇最新評(píng)論文章(下稱“最新評(píng)論”)口風(fēng)突變,對(duì)ChatGPT展示出了擁抱變化的積極態(tài)度。最新評(píng)論稱,學(xué)術(shù)界對(duì)AIGC(人工智能生成式內(nèi)容)技術(shù)的使用是不可避免的,因此,單純的禁止是不可行的。

面向未來(lái),最新評(píng)論認(rèn)為,當(dāng)務(wù)之急是學(xué)術(shù)界應(yīng)就這一潛在的顛覆性技術(shù)的影響開(kāi)展辯論,并據(jù)此提出五個(gè)關(guān)鍵問(wèn)題,以及相應(yīng)的建議。

這一判斷也與近期全球科技巨頭的行動(dòng)相似:谷歌、百度跟隨微軟密集發(fā)布類(lèi)似ChatGPT的聊天機(jī)器人項(xiàng)目,也因此引發(fā)資本市場(chǎng)的“ChatGPT旋風(fēng)”。

《財(cái)經(jīng)》通過(guò)梳理全球?qū)W界的最新行動(dòng),采訪接觸過(guò)ChatGPT的高校研究人員、人工智能治理領(lǐng)域的法律專(zhuān)家,試圖找到一條最大程度利用新技術(shù)促進(jìn)學(xué)術(shù)發(fā)展,并有效規(guī)避“學(xué)術(shù)不端”“署名權(quán)爭(zhēng)議”“缺乏透明度”等問(wèn)題的可行性路徑。

· 一名在加州大學(xué)伯克利分校就讀的博士候選人向《財(cái)經(jīng)》坦言,日常研究沒(méi)有使用過(guò)ChatGPT及類(lèi)似的聊天型機(jī)器人。原因在于ChatGPT生成的回答可能會(huì)不準(zhǔn)確,這一行為不符合學(xué)術(shù)規(guī)范,擔(dān)心會(huì)被學(xué)校退學(xué),自毀研究前途。

· 對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心執(zhí)行主任張欣:ChatGPT在現(xiàn)階段僅能做有限的信息整合和寫(xiě)作,無(wú)法代替深度、原創(chuàng)性研究,可以通過(guò)開(kāi)發(fā)甄別和對(duì)抗技術(shù)濫用的方法和工具來(lái)治理相關(guān)問(wèn)題。

· 北京大學(xué)法學(xué)院教授薛軍:只要運(yùn)用得當(dāng),ChatGPT會(huì)是一個(gè)積極的工具。未來(lái)學(xué)界應(yīng)當(dāng)形成規(guī)范,要求研究者在論文中披露由ChatGPT生成的內(nèi)容,避免學(xué)術(shù)不端的風(fēng)險(xiǎn)。

·南開(kāi)大學(xué)法學(xué)院副院長(zhǎng)陳兵:ChatGPT是具有技術(shù)中性工具,要判斷研究者是否構(gòu)成學(xué)術(shù)不端,要分析該工具在成果中起到的實(shí)質(zhì)作用。

從“如臨大敵”到“加以利用”

最先感受到ChatGPT沖擊的教育業(yè),不斷在近期采取嚴(yán)厲措施,避免“學(xué)術(shù)不端”。

多個(gè)廣為傳播的媒體報(bào)道案例顯示,多所美國(guó)名校的學(xué)生使用ChatGPT代替自己寫(xiě)論文或完成考試,并表現(xiàn)出頂級(jí)水平。

斯坦福大學(xué)校園媒體《斯坦福日?qǐng)?bào)》的一項(xiàng)匿名調(diào)查顯示,大約 17% 的受訪斯坦福學(xué)生(4497名)表示,使用過(guò) ChatGPT 來(lái)協(xié)助他們完成秋季作業(yè)和考試。斯坦福大學(xué)發(fā)言人迪·繆斯特菲(Dee Mostofi)表示,該校司法事務(wù)委員會(huì)一直在監(jiān)控新興的人工智能工具,并將討論它們?nèi)绾闻c該校的榮譽(yù)準(zhǔn)則相關(guān)聯(lián)。

在線課程供應(yīng)商Study.com面向全球1000名18歲以上學(xué)生的一項(xiàng)調(diào)查顯示,每10個(gè)學(xué)生中就有超過(guò)9個(gè)知道ChatGPT,超過(guò)89%的學(xué)生使用ChatGPT來(lái)完成家庭作業(yè),48%的學(xué)生用ChatGPT完成小測(cè)驗(yàn),53%的學(xué)生用ChatGPT寫(xiě)論文,22%的學(xué)生用ChatGPT生成論文大綱。

ChatGPT同樣在某些考試中展示出驚人的能力。

發(fā)表在預(yù)印本網(wǎng)站MedRxiv的一篇文章顯示,ChatGPT在一項(xiàng)實(shí)驗(yàn)中已經(jīng)接近通過(guò)美國(guó)醫(yī)學(xué)執(zhí)照考試(USMLE),而普通的美國(guó)醫(yī)學(xué)生需要四年的醫(yī)學(xué)院教育和兩年的臨床輪轉(zhuǎn),才能通過(guò)這一考試。

全球教育界對(duì)此的第一反應(yīng)是“如臨大敵”。

一個(gè)廣為傳播的評(píng)論來(lái)自哲學(xué)家、語(yǔ)言學(xué)家艾弗拉姆·諾姆·喬姆斯基(Avram Noam Chomsky)。在2023年1月23日的視頻采訪中,喬姆斯基表示,ChatGPT本質(zhì)上是“高科技剽竊”和“避免學(xué)習(xí)的一種方式”。 喬姆斯基認(rèn)為,學(xué)生本能地使用高科技來(lái)逃避學(xué)習(xí)是“教育系統(tǒng)失敗的標(biāo)志”。

1月26日,《科學(xué)》通過(guò)社論宣布,正在更新編輯規(guī)則,強(qiáng)調(diào)不能在作品中使用由ChatGPT(或任何其他人工智能工具)所生成的文本、數(shù)字、圖像或圖形。社論特別強(qiáng)調(diào),人工智能程序不能成為作者。如有違反,將構(gòu)成科學(xué)不端行為。

1月24日,《自然》也發(fā)文表示,由于任何作者都承擔(dān)著對(duì)所發(fā)表作品的責(zé)任,而人工智能工具無(wú)法做到這點(diǎn),因此任何人工智能工具都不會(huì)被接受為研究論文的署名作者。文章同時(shí)指出,如果研究人員使用了有關(guān)程序,應(yīng)該在方法或致謝部分加以說(shuō)明。

與此同時(shí),學(xué)界也開(kāi)始反思ChatGPT是否“百害而無(wú)一利”。

沃頓商學(xué)院教授克里斯提娜·特維奇(Christian Terwiesch)的一項(xiàng)研究記錄了GPT-3在MBA核心課程《運(yùn)營(yíng)管理》的考試中的表現(xiàn)。特維奇發(fā)現(xiàn),雖然GPT-3在基本運(yùn)營(yíng)管理和流程分析問(wèn)題上做得較好,非常善于根據(jù)人類(lèi)的提示來(lái)修改其答案。但目前版本的GPT-3無(wú)法處理更高級(jí)的流程分析問(wèn)題,且其數(shù)學(xué)水平相當(dāng)于六年級(jí),在相對(duì)簡(jiǎn)單的計(jì)算中有時(shí)會(huì)出現(xiàn)令人驚訝的錯(cuò)誤。OpenAI從2015年開(kāi)啟人工智能研究,此后陸續(xù)推出了語(yǔ)言處理模型GPT-1、GPT-2、GPT-3,它們也即ChatGPT的前身。

特維奇表示,GPT-3技術(shù)能通過(guò)“個(gè)性化”“互動(dòng)”的方式提高M(jìn)BA教育的學(xué)習(xí)體驗(yàn)。例如,生成個(gè)性化的學(xué)習(xí)材料,提供實(shí)時(shí)反饋,并促進(jìn)在線討論和小組項(xiàng)目。特維奇據(jù)此認(rèn)為,應(yīng)該允許學(xué)生采用ChatGPT完成作業(yè),但要提高作業(yè)的標(biāo)準(zhǔn)。

北京大學(xué)法學(xué)院教授薛軍對(duì)《財(cái)經(jīng)》表示,只要運(yùn)用得當(dāng),ChatGPT會(huì)是一個(gè)積極的工具。

張欣認(rèn)為, ChatGPT在設(shè)計(jì)時(shí)并不存在主觀惡意意圖,亦沒(méi)有明顯的設(shè)計(jì)缺陷。一方面,ChatGPT可以提高學(xué)術(shù)研究基礎(chǔ)資料的檢索和整合效率。另一方面,ChatGPT在現(xiàn)階段僅能做有限的信息整合和寫(xiě)作,但無(wú)法代替深度、原創(chuàng)性的研究。因此,ChatGPT可以反向激勵(lì)學(xué)術(shù)研究者開(kāi)展更有深度的研究。

南開(kāi)大學(xué)法學(xué)院副院長(zhǎng)陳兵對(duì)《財(cái)經(jīng)》分析,ChatGPT是具有技術(shù)中性的工具,要判斷研究者是否構(gòu)成學(xué)術(shù)不端,要分析該工具在成果中起到的實(shí)質(zhì)作用。如ChatGPT生成的內(nèi)容僅占文章一小部分,文章多數(shù)部分為作者獨(dú)立完成,且包含其思想和情感,則可以視為該學(xué)者的智力成果,并不構(gòu)成學(xué)術(shù)不端;若文章大部分內(nèi)容皆出自ChatGPT生成的內(nèi)容,且是基于對(duì)大量語(yǔ)言數(shù)據(jù)的計(jì)算模擬而成,并不具有現(xiàn)行《著作權(quán)法》中創(chuàng)作作品的構(gòu)成要件,超過(guò)了合理限度范圍,且內(nèi)容并沒(méi)有包含該學(xué)者的思想或情感表達(dá),則可能構(gòu)成學(xué)術(shù)不端。

但是,如何在利用、發(fā)揮新技術(shù)優(yōu)勢(shì)的同時(shí),避免落入倫理乃至法律陷阱,仍然需要持續(xù)地探討和實(shí)踐。

探討一:如何解決“學(xué)術(shù)不端”

前述最新評(píng)論作者提出了五條建議,以解決ChatGPT可能帶來(lái)的“學(xué)術(shù)不端”風(fēng)險(xiǎn)。

1. 堅(jiān)持進(jìn)行人工驗(yàn)證。

2. 制定關(guān)于如何歸責(zé)的標(biāo)準(zhǔn)。

3. 投資開(kāi)發(fā)真正開(kāi)放的大型語(yǔ)言模型。

4. 擁抱人工智能帶來(lái)的好處。

5. 繼續(xù)擴(kuò)大討論,鼓勵(lì)每個(gè)科研團(tuán)隊(duì)甚至本科教學(xué)都嘗試ChatGPT,呼吁建立持續(xù)的、多元的國(guó)際論壇來(lái)討論相關(guān)問(wèn)題。

對(duì)此,薛軍認(rèn)為,未來(lái)學(xué)術(shù)界應(yīng)當(dāng)形成一種學(xué)術(shù)性規(guī)范,要求研究者、學(xué)生在論文中披露由ChatGPT生成的內(nèi)容,避免學(xué)術(shù)不端的風(fēng)險(xiǎn)。

陳兵指出,在技術(shù)層面,需要基于ChatGPT技術(shù)生產(chǎn)內(nèi)容的邏輯與特征,加強(qiáng)對(duì)ChatGPT生成的內(nèi)容的鑒別和識(shí)別。

張欣也建議,可以“用算法來(lái)治理算法,用AI來(lái)治理AI”。此前,研究者曾基于“深度合成”技術(shù)開(kāi)發(fā)出甄別對(duì)抗技術(shù)濫用的方法和工具。

張欣舉例說(shuō),谷歌開(kāi)發(fā)了 “Reality Defender”工具,可掃描用戶瀏覽的圖像、視頻或其他數(shù)字媒介,標(biāo)記并報(bào)告可疑的偽造內(nèi)容,檢測(cè)經(jīng)篡改的人工合成內(nèi)容。未來(lái),技術(shù)公司也可以針對(duì)性地開(kāi)發(fā)甄別工具。

此外,張欣認(rèn)為,可以依靠技術(shù)社群和用戶的力量的“眾包治理”來(lái)應(yīng)對(duì)風(fēng)險(xiǎn)。比如科技巨頭Meta聯(lián)合微軟、Partnership on AI、MIT等九家機(jī)構(gòu)發(fā)起深度合成檢測(cè)挑戰(zhàn)賽(Deepfake Detection Challenge),以眾包思路探索深度合成技術(shù)甄別治理工作。推特也主辦過(guò)算法偏見(jiàn)賞金挑戰(zhàn)賽,為算法偏見(jiàn)識(shí)別提供現(xiàn)金獎(jiǎng)勵(lì)。

探討二:如何確定“署名權(quán)”

面向未來(lái),一個(gè)有待解決的治理爭(zhēng)議是,人工智能能否成為論文作者。

最新評(píng)論認(rèn)為,法律界需要弄清楚到底是誰(shuí)擁有作品的署名權(quán)。是通過(guò)人工智能系統(tǒng)訓(xùn)練文本的個(gè)人,還是生產(chǎn)人工智能的公司,或者是使用該系統(tǒng)來(lái)指導(dǎo)他們寫(xiě)作的科學(xué)家?同時(shí),必須考慮和界定作者的定義。

根據(jù)中國(guó)《著作權(quán)法》的規(guī)定,在作品上署名的默認(rèn)為作者,也視為著作權(quán)人。除自然人,法人、其他組織也可以作為擬制人視為作者,繼而確立著作權(quán)歸屬。法律對(duì)于作者也有基本的判斷標(biāo)準(zhǔn)——具有獨(dú)創(chuàng)性貢獻(xiàn)。

薛軍表示,爭(zhēng)論人工智能是否具有署名權(quán)并非問(wèn)題的關(guān)鍵。人工智能并非法律意義上的主體,因此并不存在署名權(quán)的問(wèn)題,關(guān)鍵在于學(xué)術(shù)研究者在援引ChatGPT生成的內(nèi)容時(shí)要如實(shí)披露。

此前北京大學(xué)法學(xué)院教授、中國(guó)法學(xué)會(huì)知識(shí)產(chǎn)權(quán)法研究會(huì)副會(huì)長(zhǎng)張平曾表示,對(duì)于AI生成物,不應(yīng)再秉持署名權(quán)和著作權(quán)合二為一的原則。AI署名的目的是聲明該作品是由人工智能而非自然人創(chuàng)作,標(biāo)明作品出處,防止人類(lèi)剽竊人工智能的成果。張平是在參加對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心、《財(cái)經(jīng)》商業(yè)治理研究院、財(cái)經(jīng)E法共同發(fā)起第四期“數(shù)智說(shuō)”研討時(shí),表達(dá)上述觀點(diǎn)的。

張平援引案例表示,AI署名在客觀上有著標(biāo)識(shí)作品來(lái)源的功能,類(lèi)似于反欺詐和反假冒商標(biāo)的作用。比如,谷歌的AlphaDog,微軟的小冰,騰訊的Dreamwriter等,都在其人工智能作品上署機(jī)器人和算法的名字,已經(jīng)有馳名商標(biāo)的功能。

此外,張平認(rèn)為,AI生成物的著作權(quán)界定也可以借鑒其他知識(shí)產(chǎn)權(quán)法理模式。比如,《專(zhuān)利法》中的發(fā)明人署名與專(zhuān)利權(quán)歸屬無(wú)關(guān)。也可以認(rèn)為,在作品上署名的是作者但不一定是著作權(quán)人,著作權(quán)人可以通過(guò)權(quán)利標(biāo)注符號(hào)另行標(biāo)注。而目前《著作權(quán)法》規(guī)定,視聽(tīng)作品的著作權(quán)歸屬通過(guò)合同約定的模式,也是一種可選方案。

陳兵也認(rèn)為,從學(xué)術(shù)規(guī)范層面,可通過(guò)“署名”對(duì)ChatGTP生成物進(jìn)行標(biāo)識(shí),以避免學(xué)術(shù)著作中濫用該技術(shù)。

陳兵說(shuō)解釋?zhuān)跈?quán)責(zé)劃分上,可根據(jù)不同主體對(duì)生成內(nèi)容價(jià)值的作用大小進(jìn)行劃分。譬如ChatGTP生成內(nèi)容的價(jià)值源于其設(shè)計(jì)者算法的巧妙設(shè)計(jì),則設(shè)計(jì)者擁有ChatGTP生成著作的權(quán)利,工具使用者不得濫用或者非法使用ChatGTP生成內(nèi)容。若ChatGPT的最終生成內(nèi)容是經(jīng)由工具使用者反復(fù)調(diào)適,輸入變量等操作,使生成內(nèi)容的價(jià)值遠(yuǎn)大于其在一般運(yùn)行狀態(tài)下生成的內(nèi)容,則工具的使用者可以享有著作權(quán)。

探討三:如何解決“缺乏透明度”問(wèn)題

學(xué)術(shù)界擔(dān)憂的另一問(wèn)題是大型語(yǔ)言模型缺乏透明度。

最新評(píng)論指出,ChatGPT及其前身基礎(chǔ)訓(xùn)練集和大型語(yǔ)言模型是不公開(kāi)的。科技公司可能會(huì)隱瞞其對(duì)話式人工智能的內(nèi)部運(yùn)作,這與透明和開(kāi)放的科學(xué)原則背道而馳。

對(duì)此,張欣認(rèn)為,雖然學(xué)術(shù)界希望科技公司盡可能開(kāi)放代碼,但算法在實(shí)踐層面只能在合理范圍內(nèi)展現(xiàn)透明度。當(dāng)代碼開(kāi)放可能涉及算法的“算計(jì)”,即引發(fā)算法安全漏洞和算法攻擊行為的時(shí)候,開(kāi)放并非是明智之舉。再加上代碼本身涉及到商業(yè)秘密和知識(shí)產(chǎn)權(quán),所以難以要求科技公司全部公開(kāi)模型信息。

陳兵認(rèn)為,ChatGPT的透明度缺乏涉及算法偏見(jiàn)、算法黑箱帶來(lái)的人工智能算法生成內(nèi)容不公正、不健康的問(wèn)題,但要解決上述問(wèn)題并不宜直接公開(kāi)其模型,OpenAI對(duì)于內(nèi)部運(yùn)作機(jī)制適當(dāng)?shù)碾[瞞是有必要的。此外,通過(guò)開(kāi)放應(yīng)用接口等形式進(jìn)行部分開(kāi)源,具有非常大的商業(yè)價(jià)值,也可推動(dòng)算法解釋權(quán),僅需對(duì)算法作出決策所依據(jù)的基本規(guī)則和標(biāo)準(zhǔn)進(jìn)行闡述即可。

薛軍表示,缺乏透明度涉及到算法監(jiān)管。目前歐盟、美國(guó)都在制定人工智能相關(guān)的規(guī)制框架,其目的是基于人工智能產(chǎn)生的風(fēng)險(xiǎn)類(lèi)型進(jìn)行不同程度的管制。但由于ChatGPT的算法目前是不公開(kāi)的,這就會(huì)對(duì)相關(guān)規(guī)制框架的應(yīng)用造成一定的限制。薛軍分析說(shuō),目前ChatGPT技術(shù)路線還處于競(jìng)爭(zhēng)的早期階段,什么時(shí)間真正開(kāi)放,各個(gè)國(guó)家和地區(qū)可能還會(huì)有一些差別。

“目前,中國(guó)的百度、阿里都在跟進(jìn)這一技術(shù),漢語(yǔ)語(yǔ)境下的模型可能與英語(yǔ)語(yǔ)境下的模型有所不同,未來(lái)這一領(lǐng)域的技術(shù)競(jìng)爭(zhēng)可能還會(huì)更加深入?!毖娬f(shuō)。

    本站是提供個(gè)人知識(shí)管理的網(wǎng)絡(luò)存儲(chǔ)空間,所有內(nèi)容均由用戶發(fā)布,不代表本站觀點(diǎn)。請(qǐng)注意甄別內(nèi)容中的聯(lián)系方式、誘導(dǎo)購(gòu)買(mǎi)等信息,謹(jǐn)防詐騙。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請(qǐng)點(diǎn)擊一鍵舉報(bào)。
    轉(zhuǎn)藏 分享 獻(xiàn)花(0

    0條評(píng)論

    發(fā)表

    請(qǐng)遵守用戶 評(píng)論公約

    類(lèi)似文章 更多