潛在和未知的風險
![]() 【導讀】2023年的達沃斯論壇這次邀請了OpenAI的CEO Sam Altman發(fā)表主題為「AI邁向下一個紀元」的閉幕演講,并預測了未來AI的發(fā)展方向。 過去的一年里,生成式AI(Generative AI)可謂是強勢出圈。 從文本到圖像到視頻甚至代碼,你能想到的生成AI幾乎都能幫你做到。 這不,2023年世界經(jīng)濟年度峰會,也就是達沃斯論壇也點名表揚了生成AI在2022年所取得的輝煌成就。 ![]() 本文將生成式AI稱為「社會和企業(yè)需要鄭重應對的破局者」,足以見其重視程度。 ![]() 此外,論壇還邀請了OpenAI的CEO Sam Altman出席并發(fā)表了「AI邁向下一個紀元」的閉幕主題演講,同時討論了關于AI未來發(fā)展對經(jīng)濟社會的幫助等一系列話題。 ![]() 這次與Altman對話訪談的是美國知名企業(yè)、領英聯(lián)合創(chuàng)始人里德·霍夫曼 (Reid Hoffman)。 ![]() 我們截取了一小段對話訪談的片段,完整訪談鏈接也貼在下面啦。 ![]() Reid Hoffman:所以我認為很多人感興趣的一件事是,基于 API將創(chuàng)建非常大的模型,那么真正的商機是什么?前瞻的方式有哪些?鑒于API將可供多個玩家使用,您如何創(chuàng)建獨特的業(yè)務? Sam Altman:是的。所以我認為到目前為止,我們已經(jīng)進入了一個無窮可能性的領域,你可以通過模型完成許多過去復雜的事情。但我猜想,隨著我們在未來幾年看到的語言模型的質(zhì)量,搜索產(chǎn)品將首次對谷歌構成嚴峻挑戰(zhàn)。包括我們的ChatGPT之前還被人們嘲笑,但現(xiàn)在它體現(xiàn)出的能力讓任何公司都不容忽視。 Altman認為人工智能是所有科技發(fā)展的基礎平臺,從大型語言模型到圖像和語言之間切換的多模態(tài)應用的巨大飛躍,到顯著擴展科學家能力的應用程序,所有行業(yè)都將從中取得許多進步。 ![]() 視頻鏈接:https:///WHoWGNQRXb0 完整訪談鏈接:https:///greymatter/sam-altman-ai-for-the-next-era/ 最后文章還總結了這些年來生成AI的發(fā)展歷史。 上一組圖來看看,從2014到2022生成AI在圖像品質(zhì)上的飛越,這些圖片都是由AI模型生成的現(xiàn)實中不存在的人。 ![]() 生成式AI的超強能力 生成式預訓練轉(zhuǎn)換器 (GPT) 是一種大型語言模型 (LLM),它使用深度學習來生成類似人類的文本。 盡管當前市場低迷,科技行業(yè)裁員,但生成式人工智能公司繼續(xù)受到投資者的關注。 例如Stability AI和Jasper最近分別融資了1.01億美元和1.25億美元,紅杉資本等投資者認為生成式 AI 領域可以產(chǎn)生數(shù)萬億美元的經(jīng)濟價值。 ![]() 隨著Stable Diffusion和ChatGPT等新模型的發(fā)布,生成式AI已成為技術專家、投資者、政策制定者和整個社會的熱門話題。 生成式AI并不是一個全新的概念,生成式 AI 背后的機器學習技術在過去十年中不斷發(fā)展。 生成式AI訓練模型的工作原理是從大型數(shù)據(jù)集中學習,并使用這些知識生成與訓練數(shù)據(jù)集中示例相似的新數(shù)據(jù)。 ![]() 這通常是使用一種稱為生成模型的機器學習算法來完成的。生成式模型有許多不同類型,每一種都使用不同的方法生成新數(shù)據(jù)。 一些常見的生成模型類型包括生成對抗網(wǎng)絡(GAN)、VAE和自回歸模型。 例如,在人臉圖像數(shù)據(jù)集上訓練的生成模型可能會學習人臉的一般結構和外觀,然后使用這些知識生成新的、以前未見過的但是看起來真實可信的人臉。 生成模型用于各種應用程序,包括圖像生成、自然語言處理和音樂生成。它們對于手動生成新數(shù)據(jù)非常困難的任務特別有用,比如為產(chǎn)品創(chuàng)建新設計或生成聽起來很逼真的語音。 OpenAI 的最新版本 ChatGPT 引起了轟動,并在短短五天內(nèi)吸引了 100 萬用戶,被描述為在更廣泛的任務領域取得了突破。 目前正在討論的用例包括搜索引擎的新架構、解釋復雜的算法、創(chuàng)建個性化治療機器人、幫助從頭開始構建應用程序、解釋科學概念等。 Midjourney、DALL-E 和 Stable Diffusion 等文本到圖像程序有可能改變藝術、動畫、游戲、電影和建筑等的渲染方式。 基于人機合作的新時代,樂觀主義者聲稱,生成式人工智能將有助于藝術家和設計師的創(chuàng)作過程,因為生成式人工智能系統(tǒng)將增強現(xiàn)有任務,加速構思,并從根本上加快創(chuàng)作階段。 除了創(chuàng)意空間,生成式AI模型在計算機工程等復雜科學領域具有變革能力。 例如,微軟擁有的GitHub Copilot基于OpenAI的Codex模型,可以建議代碼并協(xié)助開發(fā)人員自動完成他們的編程任務。 該系統(tǒng)被引用為自動完成高達 40% 的開發(fā)人員代碼,大大增加了工作流程。 潛在和未知的風險 雖然生成式人工智能讓人們對它所帶來的創(chuàng)造力感到激動,但也有人擔心這些模型對社會的影響。 數(shù)字藝術家Greg Rutkowski擔心互聯(lián)網(wǎng)上會充斥著與他自己的作品無法區(qū)分的藝術品,只需告訴系統(tǒng)以他獨特的風格復制藝術品即可。 ![]() 藝術教授 Carson Grubaugh 也有同樣的擔憂,并預測大部分創(chuàng)意勞動力,包括從事娛樂、視頻游戲、廣告和出版業(yè)的商業(yè)藝術家,可能會因為生成人工智能模型而失業(yè)。 除了對任務和工作產(chǎn)生深遠影響外,生成式AI模型和相關的外部性在AI治理社區(qū)引起了警覺。 大型語言模型的問題之一是它們能夠生成虛假和誤導性內(nèi)容。 Meta 的Galactica——一個在 4800 萬篇科學文章上訓練的模型,聲稱可以總結學術論文、解決數(shù)學問題和編寫科學代碼——在上線不到三天后就被撤下了,因為科學界發(fā)現(xiàn)它對學生產(chǎn)生了誤解,產(chǎn)出了錯誤的數(shù)據(jù)和知識。 ![]() 另外通過圖靈測試的機器人表現(xiàn)出與人類相似或無法區(qū)分的智能行為的能力,此類功能可能會被濫用來跨平臺和生態(tài)系統(tǒng)生成虛假信息。 大型模型繼續(xù)在書籍、文章和網(wǎng)站中代表的大量數(shù)據(jù)集上進行訓練,這些數(shù)據(jù)集可能以難以完全過濾的方式存在偏差。 盡管在 ChatGPT 的案例中通過使用人類反饋強化學習 (RLHF) 大大減少了有害和不真實的輸出,但 OpenAI 承認他們的模型仍然會產(chǎn)生惡意和有偏見的輸出。 參考資料: https://www./agenda/2023/01/davos23-generative-ai-a-game-changer-industries-and-society-code-developers/ |
|
來自: 小飛俠cawdbof0 > 《智能》