其實(shí)呢,這真的是一個(gè)“看臉”的世界。。。 很早以前,達(dá)爾文就提出了人類(lèi)因臉而迷人的進(jìn)化說(shuō)明。 也就是說(shuō),人在非常害怕或者高興時(shí)的狀態(tài),都會(huì)通過(guò)面部表達(dá)出來(lái)。在語(yǔ)言誕生前,臉就成了我們祖先交流溝通和識(shí)別身份一個(gè)非常重要的工具。
今天,人臉的表情除了人類(lèi)自己能夠識(shí)別出來(lái)以外,機(jī)器也能讀取當(dāng)中許多暗藏的信息。并且,“刷臉”也開(kāi)始被應(yīng)用于衣食住行各個(gè)場(chǎng)景。 行:百度已經(jīng)與首都機(jī)場(chǎng)簽署了戰(zhàn)略合作協(xié)議——人臉閘機(jī)將入駐機(jī)器運(yùn)控中心進(jìn)行測(cè)試。 這樣一來(lái),以后登記排隊(duì)的速度會(huì)大大加快,而且,即使沒(méi)帶身份證和登機(jī)牌,也不用擔(dān)心錯(cuò)過(guò)飛機(jī)啦。
食:支付寶在杭州萬(wàn)象城肯德基餐廳開(kāi)啟了“刷臉支付”。 只要在自助點(diǎn)餐機(jī)上選好餐,進(jìn)入支付頁(yè)面,就能選擇“支付寶刷臉付”,進(jìn)行人臉識(shí)別,前后只需要花費(fèi)1~2秒的時(shí)間。 接著,再輸入與賬號(hào)綁定的手機(jī)號(hào),確認(rèn)后即可支付。支付過(guò)程不到10秒。
識(shí):行人臉識(shí)別技術(shù)還能幫助尋找拐賣(mài)兒童,被拐孩子經(jīng)過(guò)多年的成長(zhǎng),可能連親媽都認(rèn)不出來(lái)了。 但人工智能卻能通過(guò)數(shù)據(jù)比對(duì)幫助失去孩子的父母找到親人。
除了應(yīng)用于身份確認(rèn)和日常的支付行為外,人臉識(shí)別技術(shù)最近又有幾項(xiàng)頗受爭(zhēng)議的技術(shù)研究。 其中一項(xiàng),就是斯坦福大學(xué)商學(xué)院教授 Michal Kosinski在《個(gè)性與社會(huì)心理學(xué)雜志》上發(fā)表的“深度神經(jīng)網(wǎng)絡(luò)能夠比人類(lèi)更精確地從面部表情中檢測(cè)出性取向”。 這也就是說(shuō),人工智能可以被用來(lái)準(zhǔn)確地測(cè)試某人的性取向。
我們先來(lái)看兩組照片,你能看出什么端倪嗎?
左側(cè)為異性戀面部照片聚合形成的圖像,右側(cè)則是同性戀。 老實(shí)說(shuō),有沒(méi)有覺(jué)得同性戀的顏值更高? 這是AI的成績(jī):僅憑一張照片區(qū)分直男與同性戀的準(zhǔn)確率高達(dá)81%,對(duì)女性的性取向判斷準(zhǔn)確率為71%。 人類(lèi)對(duì)性取向的敏銳程度就差得多:男女同性戀的判斷準(zhǔn)確率分別僅為61%和54%。 此外,對(duì)于人工智能來(lái)說(shuō),如果能看過(guò)同一個(gè)人的五張照片,那么計(jì)算機(jī)對(duì)男女性取向的判斷準(zhǔn)確率還將進(jìn)一步提高至91%和83%。
性取向只是個(gè)人的選擇,而且也是隱私。 如果我們儲(chǔ)存在政府?dāng)?shù)據(jù)庫(kù)和社交網(wǎng)絡(luò)上的十億公共數(shù)據(jù),沒(méi)有經(jīng)過(guò)允許就被拿來(lái)進(jìn)行性取向的識(shí)別怎么辦?
細(xì)思恐極,這項(xiàng)技術(shù)有朝一日可能會(huì)徹底改變隱私、公平和信任這些我們視為常規(guī)的概念。 那么人們又是如何看待這個(gè)研究呢? LGBT權(quán)利團(tuán)體首先跳出來(lái)強(qiáng)烈反對(duì),他們認(rèn)為這項(xiàng)研究存在缺陷,反對(duì)同性戀的政府可以使用這種軟件來(lái)對(duì)付同性戀者并迫害他們。 我們最不愿意看到的是通過(guò)流血事件來(lái)引發(fā)改革。 比如,惡霸可能會(huì)用一種算法識(shí)別一位小青年的同性戀傾向后以教法教規(guī)的名義對(duì)他進(jìn)行迫害,最終導(dǎo)致同性戀青年遭遇不幸。 一些信仰伊斯蘭教的國(guó)家甚至將同性戀視為應(yīng)受懲罰的犯罪行為。一經(jīng)發(fā)現(xiàn)就會(huì)被處以“石刑”(一種鈍擊致死的死刑執(zhí)行方式)。
全世界,目前至少有 10 個(gè)國(guó)家對(duì)同性戀判處死刑,而且,在74個(gè)國(guó)家里,同性戀至今仍然是非法的。
此外,將人臉識(shí)別用于識(shí)別“性取向”還有可能引發(fā)復(fù)雜的道德問(wèn)題。 技術(shù)要是不被限制使用,就會(huì)出現(xiàn)濫用人工智能以攻擊弱勢(shì)群體的事情。 畢竟人類(lèi)除了食物鏈在頂端,鄙視鏈的種類(lèi)也是其他物種無(wú)法企及的。什么發(fā)型啊、口音、衣著打扮、工種啊,甚至是殘疾都可以成為嘲笑的理由。 人性的弱點(diǎn),從來(lái)都在伺機(jī)而動(dòng)。
眼下,政府和企業(yè)已經(jīng)擁有這些技術(shù)能力,但是這些保護(hù)措施與人工智能的發(fā)展沒(méi)有同步。 在努力推動(dòng)隱私保護(hù)和監(jiān)管方面的保護(hù)措施的同時(shí),其他可能存在的危險(xiǎn)也要加以防范。
Kosinski教授還說(shuō),面部識(shí)別技術(shù)也可以用來(lái)判斷智商的高低。如果以后學(xué)校通過(guò)面部識(shí)別來(lái)招生,那么將會(huì)引發(fā)了一系列倫理問(wèn)題。 本來(lái)教育資源就不公平了,這種技術(shù)的發(fā)展更會(huì)加劇不公平的現(xiàn)象發(fā)生。 此外,還包括公司招聘。如果HR就可以按照自己偏好選擇求職者,人臉識(shí)別則可以使這種偏見(jiàn)變得常態(tài)化。 這樣一來(lái),公司就有可能根據(jù)種族、智力和性取向等特征過(guò)濾掉部分求職者。
除了隱私受到侵蝕,我們還會(huì)遭受所謂精準(zhǔn)投放廣告的騷擾,比如Facebook可以向去過(guò)車(chē)行的顧客投遞汽車(chē)領(lǐng)域的廣告。
面部表情包含了多種因素的可觀測(cè)指標(biāo),老祖宗有句話(huà)叫做相由心生。 一些江湖術(shù)士也可以通過(guò)面相精確算出你的生活、感情史,甚至你的未來(lái)發(fā)展等。 然鵝,也有研究者正試圖利用數(shù)據(jù)分析推翻這門(mén)古老的 “科學(xué)”。
上海交大的武筱林教授和他的博士生張熙近期完成了“基于面部圖像的自動(dòng)犯罪概率推斷”的研究。 過(guò)程中,他們發(fā)現(xiàn),通過(guò)學(xué)習(xí),機(jī)器可以通過(guò)照片分辨出誰(shuí)是罪犯,誰(shuí)是守法公民,識(shí)別準(zhǔn)確率在86%以上。
圖示為研究使用的照片樣本 a組為罪犯,b組為非罪犯
|
|
來(lái)自: xdd響當(dāng)當(dāng) > 《雜談》