■ 中國信息通信研究院云計算與大數(shù)據(jù)所 龔文全 智能音箱是以音箱為載體,利用計算機網(wǎng)絡、互聯(lián)網(wǎng)、音視頻等技術,具備語音識別、語音交互、自然語言理解、語音合成等功能,能夠為用戶提供信息、生活等服務的設備。當前,智能音箱安全問題頻發(fā):2017年5月Alexa被曝出竊聽用戶聊天對話,并把錄音發(fā)送給通訊錄里的陌生人。2018年DefCon安全會議上,安全專家演示了對亞馬遜智能音箱Echo的攻擊,并實現(xiàn)對用戶進行監(jiān)聽及控制音箱播放的內容等等。 一、智能音箱安全風險淺析 通過對國內主要智能音箱廠商安全狀況進行梳理發(fā)現(xiàn),智能音箱面臨的安全風險可分為網(wǎng)絡安全風險、數(shù)據(jù)安全風險、算法安全風險、信息安全風險、社會安全風險和國家安全風險六方面。 (一) 網(wǎng)絡安全風險 “云+端”側存在安全漏洞風險,可引發(fā)系統(tǒng)安全問題。目前市面上的智能音箱多采用云平臺+兩端(移動終端和智能設備端)的框架進行傳輸通信。但由于智能音箱的服務由云平臺、移動終端與智能設備端缺乏嚴格的安全管理及認證,可能存在漏洞或后門等風險,一旦被攻破利用,可危及智能音箱產品或應用的可用性,甚至有可能成為攻擊者遠程控制智能音箱發(fā)動DDoS 1攻擊的“肉雞”。據(jù)騰訊安全實驗室發(fā)布的報告顯示,不法黑客們通常通過設備弱口令、遠程命令執(zhí)行漏洞等對智能音箱設備發(fā)起攻擊,并利用蠕蟲感染和自主批量攻擊的方式來達到控制大量目標設備的目的,實現(xiàn)構建起龐大的僵尸網(wǎng)絡。 (二) 數(shù)據(jù)安全風險 廠商通過技術手段收集用戶信息,加大了個人隱私泄露風險。智能音箱產品需要通過不停監(jiān)聽喚醒詞來工作,當默認設定的喚醒詞被觸發(fā)時,音箱產品便會自動記錄用戶的聲音,并將收集到的聲音傳回分析,繼而完成指令執(zhí)行。而智能音箱的智能化程度依賴于海量數(shù)據(jù),包括大量用戶個人信息,以便提供個性化、定制化服務。在此背景及利益驅動下,廠商通過技術手段收集用戶隱私成為普遍現(xiàn)象。例如亞馬遜公司曾被爆出,用戶家中的智能音箱Echo在未經(jīng)用戶授權的情況下,私自將家人間的聊天記錄發(fā)送給聯(lián)系人列表中的人。 黑客攻擊來自多方面,一旦被攻破將導致用戶數(shù)據(jù)泄露。因云側、端側存儲著用戶個人信息等隱私內容,因此也成為黑客攻擊的熱點。尤其是隨著Android及iOS應用逆向技術的成熟、云平臺攻擊方式的多樣性等原因,攻破其中任何一點便可成功獲取到用戶的詳細信息、偏好等敏感信息,并用于電信詐騙,電話騷擾等違法活動。例如,攻擊者在成功實施入侵后,可輕易獲取包括受害者的家庭住址、手機號等用戶敏感信息,即可冒用用戶信息用于違法活動。 (三) 算法安全風險 對抗樣本攻擊可誘使語音識別出現(xiàn)誤判,引發(fā)安全風險問題。隨著智能語音技術的應用廣泛,智能音箱跟其它所有軟件一樣,都有可能被利用來做非法的事情。例如,伯克利人工智能研究人員Nicholas Carlini和David Wagner發(fā)明了一種針對語音識別AI的新型攻擊方法。只需增加一些細微的噪音,就可以欺騙語音識別系統(tǒng)產生任何攻擊者想要的輸出,從而實現(xiàn)身份盜用,欺騙認證系統(tǒng)等非法行為。 (四) 信息安全風險 智能音箱加速不良信息的傳播途徑,增加了內容監(jiān)管難度。隨著網(wǎng)絡內容數(shù)量的不斷增加,智能音箱的內容源可能會成為不法之徒宣揚色情、恐怖主義傳播等不良信息的新手段,使得對有害內容的封堵變得更加困難。除了智能音箱廠商不具備識別或處理涉黃、涉爆、涉政等違法違規(guī)的能力外,網(wǎng)絡傳播平臺自我把關意識不足,都成為增加內容監(jiān)管難度的主要原因。例如,近期在荔枝、蜻蜓、喜馬拉雅等音頻平臺上,被爆出播放的部分音頻內容包括性暗示或赤裸的性挑逗,聽眾不乏未成年人,不少內容播放量在幾萬到幾十萬不等,已經(jīng)嚴重危害到青少年身心健康。 (五) 社會安全風險 智能音箱過度擬人化的設計,帶來了倫理道德的新風險。伴隨著帶屏智能音箱的問世,智能音箱結合視覺、聽覺形成“擬人化”的存在,賦予了智能音箱更多擬人化的特征。如果將兒童投入該環(huán)境中,兒童會把機器人視為有生命的個體,會認為其有思想、會疼痛,是自己的朋友。但是當兒童與智能產品長時間共處就會形成某種信念,可能形成對智能化產品的不安全依戀關系,進而遭受一種病態(tài)的依戀錯亂。例如,本該由父母及其他人員陪護的職責轉換到了智能設備上,孩子與社會的交流機會減少,兒童由與人交互變成了與“擬人”的機器交互,從而產生倫理道德的風險。 (六) 國家安全風險 智能音箱變成信息竊取的工具,間接威脅國家安全。智能音箱可以獲取包括聲紋在內的各種生物個性特征,一旦國家政策制定者以及其同事生活或工作在智能音箱的環(huán)境中,智能音箱能通過獲取用戶的信息進行人物畫像,甚至在決策者做出決策之前就已經(jīng)預測了決策的結論,間接對國家安全造成嚴重威脅。例如,2018年7月的英國國會會議上加文·威廉姆森發(fā)表演講時,被他的手機Siri打斷,而這次會議是英國政府高層會議,他正在會議上發(fā)表關于敘利亞問題,Siri在未經(jīng)授權的情況下“偷聽”并發(fā)表了見解。 二、促進我國智能音箱安全發(fā)展建議 1) 及時出臺監(jiān)管政策,保障用戶數(shù)據(jù)與隱私 在信息安全方面,應加快智能設備內容源監(jiān)管政策的制定與出臺,從法律、政策層面進一步的細化責任主體,同時對智能音箱廠商竊取數(shù)據(jù)等可能潛在的安全風險進行審查,保障智能音箱的安全可控。智能音箱服務提供商應進行自我監(jiān)督,增加對不良內容信息源的治理手段,提高識別、治理的技術能力。同時,廠商也應鼓勵更多用戶共同參與,加強安全防范意識。如加強對網(wǎng)絡安全法的宣傳力度,讓用戶了解網(wǎng)絡有害信息治理工作,積極參與其中,成為治理中的重要力量。 在數(shù)據(jù)安全層面,應該做到以下三點:首先,企業(yè)對用戶關心的數(shù)據(jù)保護要做到公開透明,在特定情況下收集用戶數(shù)據(jù),要經(jīng)過用戶允許,否則不得擅自使用、轉讓用戶數(shù)據(jù)等行為的發(fā)生。第二,可將用戶個人信息按照內容進行分類,再依據(jù)各類信息的價值和安全風險,給予不同程度的保護,并對用戶進行公開。最后,應加強用戶數(shù)據(jù)的安全防護手段,完善用戶數(shù)據(jù)的安全機制,定期開展云側、端側的滲透測試,降低數(shù)據(jù)安全風險。 2) 完善技術規(guī)范與法律約束,降低倫理道德風險 在社會安全層面,可由政府有關部門牽頭,成立由技術專家、社會科學研究人員、政府管理人員為核心的人工智能設備管理委員會,對涉及人工智能設備的研究和開發(fā)項目進行審核評估,嚴格控制從技術轉化為產品的環(huán)節(jié)??梢箝_發(fā)者把人類的法律規(guī)范和道德要求用代碼的形式寫入機器,全部數(shù)字語言化,使其遵守人類的行為準則。智能音箱廠商也可以將用戶的社會性、心理狀況等道德價值置入智能設備設計之中,打破智能設備本身的倫理壁壘。從程序的設計開始規(guī)避倫理失范、減少智能設備的過度擬人化等方式,最大程度降低智能設備帶來的倫理道德風險。 3) 提高應急保障水平,增強語音算法的健壯性 在網(wǎng)絡安全層面,可以分別從以下兩個方面增強安全防護能力。一是在云端或移動終端加入安全開發(fā)與設計,并引入安全測試,定期開展?jié)B透測試和風險評估;二是建立對云端、移動終端實施全方位的安全監(jiān)控與運維,形成完備的安全防護措施,確保云端、移動端的安全防護及感知能力。 在算法安全方面,需增強對不合理數(shù)據(jù)輸入的反應及處理能力,并增強語音識別算法模型的健壯性,將算法模型潛在風險縮小到最低程度,實現(xiàn)模型可靠,并建立起針對語音算法模型可靠、準確的應急響應預案。 (來源:信通院網(wǎng)站) |
|