( 每日分享最新重磅報告,與投資人、企業(yè)高管、創(chuàng)業(yè)者、行業(yè)研究員等群成員大咖互動交流,實現(xiàn)拓展人脈、資源對接、項目合作等 ) 導讀 2月23日,一份由26名專家聯(lián)合撰寫的報告《人工智能的惡意用途:預測、預防和緩解》(The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation),對人工智能技術的潛在威脅發(fā)出警告。他們認為,這項技術可能在未來5到10年催生新型網(wǎng)絡犯罪、實體攻擊和政治顛覆。參與撰寫的專家來自14家不同的機構和組織,包括牛津大學、劍橋大學和埃隆·馬斯克的OpenAI等。 報告詳細闡述了人工智能可能在未來幾年做出哪些令人們普遍反感的事情,人工智能技術現(xiàn)在會幫助敵對國家、犯罪分子和恐怖分子展開精準而高效的攻擊,不僅能夠擴大范圍,還可以提高效率。為了緩解這些威脅,該報告給出5點建議: 1、人工智能和機器學習研究人員應該承認其研究成果是雙刃劍。 2、 政策制定者應該與技術人員密切合作,調查、預防和緩解人工智能可能的惡意使用方式。 3、應該向電腦安全等其他高風險技術領域學習一些方法,將其應用于人工智能領域。 4、應該在這些領域優(yōu)先形成規(guī)范和道德框架。 5、 討論這些挑戰(zhàn)時所涵蓋的利益相關者和專家范圍應該擴大。 報告調查了惡意使用人工智能技術可能帶來的安全威脅,并提出了更好的預測、預防和緩解這些威脅的方法。報告中詳細分析了 AI 可能在數(shù)字安全、物理安全、政治安全等方面帶來的威脅,隨后還為 AI 研究人員和其他利益相關者提出了四項高層次的建議。此外,在報告中還提出了幾個有發(fā)展前景的領域,以便進一步的研究,從而能擴大防御的范圍或者使攻擊效率降低/更難執(zhí)行。 在報告的最后,作者還分析了攻擊者和防御者之間的長期平衡問題,不過并沒有明確地解決這個問題。 更多內容,詳見報告。 以下為報告節(jié)選 ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() ![]() 受篇幅限制,僅列舉部分資料 |
|