在7月底,OpenAI推出了ChatGPT高級(jí)語音模式,其功能讓用戶感到震驚。而在周四發(fā)布的一份安全審查報(bào)告中,該公司承認(rèn),這種擬人化的聲音可能使一些用戶產(chǎn)生情感上的依戀,從而影響到正常的人際關(guān)系。 據(jù)OpenAI此前介紹,高級(jí)語音模式能提供更自然的實(shí)時(shí)對(duì)話,聽起來極其逼真,它允許用戶隨時(shí)打斷,并能感知和響應(yīng)用戶的情緒。實(shí)時(shí)響應(yīng)和可打斷對(duì)話是目前語音助手公認(rèn)的技術(shù)難點(diǎn)。 OpenAI在今年5月推出了新版本大模型GPT-4o,同時(shí)還展示出了語音模式。該公司原定于6月底開始逐步向用戶開放語音模式,但最終決定推遲至7月發(fā)布。目前,僅向部分ChatGPT Plus用戶開放。 在OpenAI發(fā)布高級(jí)語音模式時(shí),它就被視為2013年電影《她》中與主人公談戀愛的AI助理,但當(dāng)AI承認(rèn)“她”還與數(shù)百名其他用戶有戀愛關(guān)系時(shí),主人公陷入了崩潰。 在經(jīng)典科幻片《銀翼殺手2049》中,上演了幾乎同樣的場(chǎng)景,AI虛擬人成為了主角的女友,當(dāng)主角看到虛擬女友以同樣的形態(tài)被售賣時(shí),令人羨慕的真摯愛情瞬間化為烏有。 現(xiàn)在,OpenAI顯然擔(dān)心上述虛構(gòu)的故事成為現(xiàn)實(shí),它觀察到高級(jí)語音模式成為了用戶表達(dá)情感的工具?!坝脩艨赡軙?huì)與AI建立社交關(guān)系,減少他們對(duì)人類互動(dòng)的需求,這可能有利于孤獨(dú)的人,但可能會(huì)影響健康的人際關(guān)系。” OpenAI指出,從一個(gè)聽起來像人類的聊天機(jī)器人那里聽到的信息,可能會(huì)導(dǎo)致用戶過于信任這個(gè)工具,但AI有犯錯(cuò)的傾向,這也會(huì)造成問題。 安全審查報(bào)告還提到,科技公司正在競(jìng)相迅速向公眾推出AI工具,他們說這些工具可能會(huì)顛覆人類生活、工作、社交和查找信息的方式。但在人們真正理解這些含義之前,他們就已經(jīng)這么做了,但這往往會(huì)帶來意想不到的后果。 倫理挑戰(zhàn) 一些人已經(jīng)開始與AI聊天機(jī)器人建立所謂的戀愛關(guān)系,這引起了情感專家的擔(dān)憂。 亞利桑那州立大學(xué)研究技術(shù)和人類交流的教授Liesel Sharabi表示,科技公司在處理與技術(shù)相關(guān)的道德和責(zé)任問題上承擔(dān)了巨大的責(zé)任,而且目前這一切都還處于試驗(yàn)階段。她擔(dān)心的是,人們可能會(huì)與那些可能長期存在不了、且不斷演變的技術(shù)形成非常深厚的聯(lián)系。 OpenAI認(rèn)為,隨著時(shí)間的推移,用戶與ChatGPT語音模式的互動(dòng)也可能影響社交中的正常行為?!拔覀兊哪P褪亲鹬赜脩舻?,允許用戶隨時(shí)打斷并'接管麥克風(fēng)’,這雖然對(duì)于AI來說是預(yù)期中的行為,但在人類互動(dòng)中卻是違反社交規(guī)范的,至少有些失禮。” 目前,OpenAI稱致力于“安全地”構(gòu)建AI助手,并計(jì)劃繼續(xù)研究和解決用戶對(duì)其工具“情感依賴”的可能性。 OpenAI并不是唯一一家認(rèn)識(shí)到AI助手模仿人類互動(dòng)的風(fēng)險(xiǎn)的公司。今年4月,谷歌DeepMind發(fā)表了一篇長篇論文,討論了更有能力的AI助手可能帶來的倫理挑戰(zhàn)。 |
|