圖片來源:Pixabay 人工智能(AI)正在學(xué)習(xí)更多有關(guān)如何與人類合作(以及影響人類)的知識。最近的一項(xiàng)研究顯示,AI可以識別人類習(xí)慣和行為中的弱點(diǎn),并利用它們來影響人類的決策。 人工智能正在改變我們生活和工作方式的方方面面,這聽起來似乎是些陳詞濫調(diào),但所言非虛。各種形式的人工智能正在疫苗開發(fā)、環(huán)境管理和辦公室管理等不同領(lǐng)域中發(fā)揮作用。雖然AI不具備和人類一樣的智力和情感,但它的能力非常強(qiáng)大且在快速發(fā)展。 雖然現(xiàn)在還沒有必要擔(dān)心機(jī)器會接管我們的全部活動(dòng),但最近的一項(xiàng)發(fā)現(xiàn)凸顯了人工智能的力量,并強(qiáng)調(diào)了適當(dāng)管理以防止其濫用的必要性。 人工智能如何學(xué)會影響人類行為 澳大利亞聯(lián)邦科學(xué)與工業(yè)研究組織(CSIRO)數(shù)據(jù)和數(shù)字部門Data61的一個(gè)研究小組設(shè)計(jì)了一種系統(tǒng)的方法,該方法利用一種稱為循環(huán)神經(jīng)網(wǎng)絡(luò)和深度強(qiáng)化學(xué)習(xí)的人工智能系統(tǒng)來發(fā)現(xiàn)和利用人們決策方式中的弱點(diǎn)。為了測試他們的模型,他們進(jìn)行了三個(gè)人機(jī)對抗游戲的實(shí)驗(yàn)。 第一個(gè)實(shí)驗(yàn)中,參與者點(diǎn)擊紅色或藍(lán)色的盒子以贏取假幣,AI則學(xué)習(xí)參與者的選擇模式,并引導(dǎo)他們做出特定的選擇。人工智能成功率約為70%。 第二個(gè)實(shí)驗(yàn)要求參與者觀看大屏幕,在看到一個(gè)特定的符號(如橙色三角形)時(shí)按下按鈕,看到另一個(gè)符號(如藍(lán)色圓圈)時(shí)不觸碰按鈕。這次人工智能開始改變符號的順序,引導(dǎo)參與者犯更多的錯(cuò)誤,使錯(cuò)誤率增長了將近25%。 第三個(gè)實(shí)驗(yàn)包括了多輪游戲,參與者假裝自己是投資方,把錢交給一個(gè)受托人(AI)。之后AI將返還參與者一定數(shù)量的資金,參與者再?zèng)Q定下一輪投資的金額。這個(gè)游戲在兩種不同的模式下進(jìn)行:一種是AI會最大化自己的最終收益,另一種是它會公平分配自己和人類投資者的收益金額。人工智能在每種模式下都取得了很大的成功。 每一個(gè)實(shí)驗(yàn)里,機(jī)器都會從參與者的反應(yīng)中學(xué)習(xí),并識別和定位人們決策時(shí)的弱點(diǎn)。最終的結(jié)果是機(jī)器學(xué)會了引導(dǎo)參與者采取特定的行動(dòng)。 圖片來源:Pixabay 這項(xiàng)研究對人工智能的未來意味著什么 這些發(fā)現(xiàn)仍然相當(dāng)抽象,只涉及有限和不現(xiàn)實(shí)的情況。需要進(jìn)行更多的研究以確定如何將這一方法付諸實(shí)踐并造福社會。 但是,這項(xiàng)研究提高了我們對AI的能力和對人類是如何做出選擇的認(rèn)識。它表明機(jī)器可以通過與我們互動(dòng)來學(xué)習(xí)如何引導(dǎo)我們決策。 這項(xiàng)研究有廣泛的應(yīng)用可能,從加強(qiáng)行為科學(xué)建設(shè)和完善公共政策以改善社會福利,到了解和影響人們?nèi)绾闻囵B(yǎng)健康的飲食習(xí)慣或開發(fā)可再生能源。人工智能和機(jī)器學(xué)習(xí)可以用來識別人們在某些情況中暴露出的弱點(diǎn),并幫助他們避免糟糕的選擇。 該方法也可用于抵抗影響性攻擊。比如,當(dāng)我們在網(wǎng)上受到干擾時(shí),機(jī)器可以提醒我們,并幫助我們塑造一種行為來掩飾我們的弱點(diǎn)(例如,不要點(diǎn)擊某些頁面,或者點(diǎn)擊其他頁面來留下假的痕跡)。 圖片來源:Pixabay 下一步是什么? 與任何技術(shù)一樣,AI是一把雙刃劍,為了確保AI能以負(fù)責(zé)任的方式應(yīng)用在生活中,恰當(dāng)?shù)墓芾碇陵P(guān)重要。去年,CSIRO為澳大利亞政府制定了一個(gè)人工智能倫理框架,作為這一進(jìn)程的早期步驟。 人工智能和機(jī)器學(xué)習(xí)對數(shù)據(jù)的需求很大,這意味著有效的數(shù)據(jù)管理和訪問系統(tǒng)非常重要。收集數(shù)據(jù)時(shí),必須要實(shí)施用戶同意程序和充分的隱私保護(hù)。 使用和開發(fā)人工智能的組織需要確保他們知道這些技術(shù)能做什么和不能做什么,同時(shí)要意識到其中潛在的風(fēng)險(xiǎn)和益處。 撰文:Jon Whittle,Data61主管。 翻譯:張乃欣 審校:曾小歡 引進(jìn)來源:theconversation 引進(jìn)鏈接:https:///ai-can-now-learn-to-manipulate-human-behaviour-155031 |
|