日韩黑丝制服一区视频播放|日韩欧美人妻丝袜视频在线观看|九九影院一级蜜桃|亚洲中文在线导航|青草草视频在线观看|婷婷五月色伊人网站|日本一区二区在线|国产AV一二三四区毛片|正在播放久草视频|亚洲色图精品一区

分享

AI錯刪YouTube機器人視頻,背后是人類難以消弭的身份焦慮

 腦極體 2020-10-30

人類有時理性。

為了讓機器人學(xué)習(xí)技能,對它們進行千錘百煉、花式虐待,都是常有的事。

有時也很感性。

盡管我們也知道銅腔鐵臂的機器人并不會因為被擊打而感覺到疼痛,但依然希望能通過更溫和的方式來讓它們成長,科學(xué)家們想方設(shè)法試圖讓它們看看YouTube視頻就能學(xué)習(xí),或是在模擬環(huán)境里展開競技……

除了同理心作祟,還有點未雨綢繆的小機智在里面。萬一哪天某天機器人覺醒了,發(fā)現(xiàn)這些被人類虐待的“黑歷史”,“黑化”了怎么辦?電影里的機器人革命不都是這么來的嘛……

但,如果替人類反思的不是我們自己,而是AI呢?

當(dāng)AI開始管理內(nèi)容,

它會違背規(guī)則、保護同類嗎?

8月21人,YouTube用戶Jamison Go最近收到了一封來自官方的通知,平臺自動刪除了他上傳的戰(zhàn)斗機器人比賽視頻,原因是算法檢測到該內(nèi)容對動物施以折磨或強迫動物對抗。當(dāng)時,機器人喬普正在和另一個機器人作戰(zhàn)。

Jamison Go在自己的Facebook賬號上寫道:“今天是一個悲傷的日子。全世界的機器人愛好者都發(fā)出痛苦的哀鳴?!?/p>

他并不是一個人。上一季戰(zhàn)斗機器人比賽的參賽者莎拉·波霍雷基也在YouTube上受到了相同的打擊,這很快引發(fā)了全世界機器人相關(guān)內(nèi)容頻道的關(guān)注。許多像BattleBots和RobotWars這樣的節(jié)目站出來,指責(zé)了YouTube這個將機器人戰(zhàn)斗檢測為虐待動物的新算法。

之所以認為是AI在搗亂,是因為人類幾乎不可能在觀看這些視頻時將機器人認成動物,畫面中也并沒有出現(xiàn)人類和其他生物,被刪除的視頻并沒有在描述、標簽甚至標題里提到機器人名字這樣容易被誤認為是生命體的文本。而且,YouTube自身對于機器人戰(zhàn)斗視頻并沒有明確的禁令。這不,第二天就有人工團隊重新審查并恢復(fù)了大部分被誤刪的視頻??磥?,將其錯誤標注并刪除的只能是算法自己干的了。

事情雖然告一段落,但AI開始擅自停止以機器人同胞們?yōu)槟繕说谋┝?,這讓不少人陷入了“機器覺醒”的陰謀論里。甚至有人開始猜想,YouTube是不是被AI接管了,讓算法做一切決定?所謂的“人工審核”到底是不是真實存在的?

又或者,你永遠不知道人工智能何時會找到另一種方法來保護它的機器人兄弟。

AI有情?真的是只是一時眼花

那么,從技術(shù)的角度講,錯誤刪除視頻到底是無意識地誤傷,還是AI們的自我保護呢?

目前來看,答案當(dāng)然是前者。因為,在理解視頻這件事上,AI真的還沒有大家想象的那么強。

2017年,谷歌推出了一款視頻智能(Video Intelligence)的API,可以自動識別視頻中的物體和內(nèi)容。這在當(dāng)時是里程碑式的應(yīng)用,因為YouTube、Facebook、新浪微博、快手等等擁有視頻產(chǎn)品的平臺,無不深受不良內(nèi)容的困擾。

一位泰國男子在Facebook上直播殺害親生女兒然后自殺的視頻,在網(wǎng)站上掛了將近24個小時,播放量超過25萬次,但其全球?qū)⒔?000人的人工審核團隊依然無法在第一時間在浩如煙海的視頻流里立即定位并刪除這些不良內(nèi)容。

Facebook屢屢因擴散不良信息而受到政府審查的同時,YouTube也在為視頻審查帶來的業(yè)務(wù)危機而頭痛。因為早先YouTube的智能廣告推薦算法,就將沃爾瑪、百事可樂、電信運營商Verizon等廣告主的貼片廣告,分發(fā)到了一些宣揚仇恨和恐怖主義的視頻上……金主爸爸們很快用腳投票,這讓YouTube乃至整個Google的廣告網(wǎng)絡(luò)都感受到了壓力。

雖然Google聲稱,這些問題只影響到了“非常非常非常少”的視頻,但顯然唯有行動才能打消用戶與廣告商的顧慮。

所以,“視頻智能”技術(shù)發(fā)布的時候,時任谷歌云機器學(xué)習(xí)與人工智能首席科學(xué)家的李飛飛曾經(jīng)這樣形容它——通過視頻識別技術(shù),“我們將開始給數(shù)字星空中一個黑暗的物質(zhì)照亮光芒?!?/p>

如今,兩年時間過去了,網(wǎng)絡(luò)內(nèi)容的黑暗一角真的被AI照亮了嗎?成果當(dāng)然是值得肯定的,比如隨著新算法模型的不斷突破,谷歌的BERT訓(xùn)練方法可以將審查的人工勞動量從12,000小時減少到80小時。

但同樣的,各大內(nèi)容平臺的人工審核團隊也在不斷擴張。顯然,機器方法的引入并沒有如預(yù)期中那樣幫助平臺提質(zhì)增效。視頻理解,依舊是一朵未能從應(yīng)用層面被摘下的高嶺之花,它具體難在何處呢?

首先是真實環(huán)境下的行為識別(Action Recognition)。

目前的視頻行為識別模型,都使用動作分割好的數(shù)據(jù)集進行訓(xùn)練,像是 UCF101、ActivityNet、DeepMind 的 Kinetics、Google的AVA數(shù)據(jù)集等等。每個視頻片段包含一段明確的動作,并被打上了明確且唯一的分類標簽。但是真實環(huán)境中的視頻都沒有被預(yù)先切分,有時還會包含多人動作等復(fù)雜場景,或是包含復(fù)雜的情緒、意圖,這些問題的處理難度都比人臉識別等明確定義的難以下,所以實際應(yīng)用時準確率就會下降。

比如一只狗張開嘴巴,和一個人打開門,都會用“打開”(open)這個動詞來標注,并被放進同一個分類中……從這個角度看,YouTube算法將機器人戰(zhàn)斗當(dāng)做動物虐待,好像也挺符合它目前的“智商”的。

對視頻中的行為進行分類就已經(jīng)很難了,如果再加上時序,就更讓AI發(fā)愁了。

因為對于圖像中的物體,目前的技術(shù)已經(jīng)能做到很容易地進行檢測和分割,然而生物行為的時序邊界往往是很不明確的,一個動作何時開始、何時結(jié)束,動作變化幅度太大等等,都很容易讓算法“眼花”。一方面,既要在大量連續(xù)幀之間解決時序冗余的問題,提高檢測速度;又要提高“眼力”,在運動模糊、部分遮擋等情況下也能精準定位和識別,就在前不久Google又提出了新的基于Q-learning學(xué)習(xí)自適應(yīng)交替策略,就是在速度與準確率之間尋求平衡。至少從這次“算法誤刪事件”看來,這條技術(shù)高山還需要工程師們持續(xù)向上攀爬。

另一個影響視頻理解技術(shù)進程的,就是成本困境。相比圖像,訓(xùn)練視頻模型需要增加許多存儲、計算資源,對實時性的要求也更高,因此也比普通神經(jīng)網(wǎng)絡(luò)更難訓(xùn)練,目前賽道上的主力玩家就是Google、Facebook、百度、頭條等巨頭在角逐。想要讓更多開發(fā)者為技術(shù)進階貢獻腦力,如何減輕訓(xùn)練負擔(dān)就成了不可忽視的工作。目前Google、百度都通過自家的開源平臺釋放了視頻理解算法模型和標注好的數(shù)據(jù)集,一些運算資源上的扶持政策也相繼露面,恨不得讓開發(fā)者們“拎包入住”……

所以從技術(shù)層面來看,視頻理解注定是無數(shù)人苦心科研的點滴心血累計,才能積累成撬動整個行業(yè)的能量,距離想象中的“AI機器人抱團”還有很長的路要走。

與智能機器共生,人類做好準備了嗎?

只要稍微想一想,就能明白算法只是無心之失,畢竟就算它未來真的可能向著自己機器人大兄弟,現(xiàn)在也不具備那個業(yè)務(wù)能力啊。這么簡單的事兒,為什么還能被“節(jié)奏大師”們引發(fā)一陣黑客帝國式恐慌呢?

原因之一,恐怕是大多數(shù)人對于《機器人打擂臺》這種格斗節(jié)目或競技比賽還是不甚了解,并不知道機器是在通過自由對抗提升對復(fù)雜環(huán)境和意外的靈活應(yīng)變能力,使它們在硬件和智能程度上不斷向應(yīng)用進階。

對于普通人來說,就看到一群機器人刀劈斧砍,互相傾軋,跟斗獸場取樂似乎并無區(qū)別,這就很容易產(chǎn)生移情效應(yīng),將自己的同情心理釋放到算法上——“人看了都想打人,AI看了肯定更生氣”,研究人員也沒少因為對機器人拳打腳踢而登上頭條……所以這次因YouTube下架事件受到影響的Maker's Muse幕后制作人Angus Deveson,就在一個聲援視頻中公開宣傳:“戰(zhàn)斗機器人節(jié)目是教育和展示工程學(xué)魅力的絕佳工具”,以期讓更多人改變對機器人節(jié)目的認知。

而另一個比較隱藏的憂慮,則是對于“AI導(dǎo)向”的社會焦慮。

今天哪怕是偏遠如非洲的人群,恐怕也無法否認,整個社會運轉(zhuǎn)不僅僅由人類組成,也有越來越多的機器參與進來,從Facebook上的一舉一動,到亞馬遜流域猿猴的生存環(huán)境,智能機器正在成為人類和人類、人類和社會之間必不可少的媒介。

如今,人類很樂意交給AI的事情往往是那些自己不愿去做或者效率低下的事情,比如審核涉黃涉爆的網(wǎng)絡(luò)內(nèi)容。未來當(dāng)所謂的“奇點”,也就是人工智能的智慧超過人類的智慧,真正來臨的時候,智能系統(tǒng)會幫助人類來擔(dān)當(dāng)社會管理者的角色,那時,人類何以重新定位自身在社會中的位置,還能夠自主選擇嗎?這種身份焦慮并沒有一個清晰的解決方案。

許多研究者都告訴大眾“車到山前必有路”,坐在車里蒙眼向前的人只好像YouTube“AI主導(dǎo)”這樣的事故下時時驚惶。這里,或許我們在追逐AI的時候,也需要早日開始求解兩個問題:

第一,AI上位如此迅速,大眾認知教育與倫理建設(shè)到位了嗎?

第二,如果沒有,當(dāng)算法與用戶之間產(chǎn)生沖突(這幾乎是必然的),科技企業(yè)在變革中如何自處?

    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多