據(jù)《零對沖》8月6日報道,智能手機因其傳送手機持有者的地理位置已經(jīng)變成了追蹤設(shè)備。而蘋果公司將要推出的一項旨在檢測和報告用戶的iphone是否存有兒童色情內(nèi)容的新計劃是對智能手機的更進一步監(jiān)控。 預(yù)計在本周晚間時候推出的被稱為”神經(jīng)匹配(neuralMatch)”的軟件系統(tǒng)將會通過軟件更新安裝在美國用戶的iPhone上。據(jù)《金融時報》(Financial Times)報道,神經(jīng)匹配系統(tǒng)將會持續(xù)掃描美國用戶iPhone里儲存的照片,同時將其上傳到iCloud備份系統(tǒng)。這些照片經(jīng)過散列算法(Hashing,把任意長度的輸入變換成固定長度的輸出)處理后被轉(zhuǎn)化成了一串數(shù)字,再與數(shù)據(jù)庫中已存有的兒童性侵圖像進行比較。該系統(tǒng)已經(jīng)接受了20萬張兒童性虐待圖片的訓(xùn)練,這些圖片由美國國家失蹤及被侵犯兒童保護中心(National Center for Missing and Exploited Children.)收集。如果該自動系統(tǒng)認為美國iPhone用戶的手機上存在兒童性虐待材料(Child Sexual Abuse Material , CSAM),將會主動向人工審核團隊發(fā)出警報。審核員一旦確認該材料確實是涉嫌兒童性侵犯,將會立即聯(lián)系執(zhí)法部門。 已經(jīng)預(yù)覽過該軟件的學(xué)者馬修格林(Matthew Green)擔心這將造成嚴重的隱私風(fēng)險。蘋果公司因其承諾保護用戶隱私而贏得了許多正面報道。比如拒絕幫助美國聯(lián)邦調(diào)查局解鎖2015年圣貝納迪諾(San Bernardino)槍擊案兇手的iPhone手機。但是在2020年1月,由于執(zhí)法部門的投訴,蘋果公司悄悄放棄了允許蘋果用戶完全加密其iCloud備份內(nèi)容的計劃?,F(xiàn)在他們找到了中立地帶,認為其至少在某種程度上有責(zé)任監(jiān)控iPhone。于是推出了這款機器學(xué)習(xí)工具掃描用戶iPhone里的照片,以鑒定是否存在兒童色情內(nèi)容。正如學(xué)者們所抱怨的那樣,蘋果的此舉是對個人隱私的嚴重侵犯。這個工具也許有一天會被的專制政府濫用于監(jiān)控其人民,離喬治奧威爾在其小說《1984》中描述的監(jiān)視型社會只有數(shù)步之遙。 除了傳統(tǒng)的唆使人互相舉報,還利用配有人臉識別系統(tǒng)的監(jiān)視攝像頭等現(xiàn)代科技加強管控,活在其之下的百姓早就毫無隱私可言。蘋果以打擊兒童色情名義推出的這個監(jiān)控軟件表明大科技公司正在原有的打壓言論自由基礎(chǔ)上,進一步地侵犯公民權(quán)利,向?qū)V粕鐣~進。 |
|
來自: 昵稱70743283 > 《全球快訊》