歷史表明,網(wǎng)絡(luò)安全威脅隨著新的技術(shù)進步而增加。關(guān)系數(shù)據(jù)庫帶來了SQL注入攻擊,Web腳本編程語言助長了跨站點腳本攻擊,物聯(lián)網(wǎng)設(shè)備開辟了創(chuàng)建僵尸網(wǎng)絡(luò)的新方法。
而互聯(lián)網(wǎng)打開了潘多拉盒子的數(shù)字安全弊病,社交媒體創(chuàng)造了通過微目標內(nèi)容分發(fā)來操縱人們的新方法,并且更容易收到網(wǎng)絡(luò)釣魚攻擊的信息,比特幣使得加密Ransomware勒索軟件攻擊成為可能。
近年來網(wǎng)絡(luò)安全事件不斷曝光,新型攻擊手段層出不窮,安全漏洞和惡意軟件數(shù)量更是不斷增長。2019年VulnDB和CVE收錄的安全漏洞均超過了15000條,平均每月高達1200條以上,2019年CNCERT全年捕獲計算機惡意程序樣本數(shù)量超過6200萬個,日均傳播次數(shù)達824萬余次,涉及計算機惡意程序家族66萬余個。
根據(jù)研究集團IDC的數(shù)據(jù),到2025年聯(lián)網(wǎng)設(shè)備的數(shù)量預計將增長到420億臺;有鑒于此,社會正在進入“超數(shù)據(jù)”時代。于是,在數(shù)據(jù)算法大行其道,人工智能方興未艾的今天,我們也迎來了新一輪安全威脅。
先想象一個超現(xiàn)實場景:未來的恐怖襲擊是一場不需要炸彈、鈾或者生化武器的襲擊,想要完成一場恐怖襲擊,恐怖分子們只需要一些膠布和一雙健步鞋,通過把一小塊膠布粘貼到十字路口的交通信號燈上,恐怖分子就可以讓自動駕駛汽車將紅燈識別為綠燈,從而造成交通事故。
要了解人工智能的獨特攻擊,需要先理解人工智能領(lǐng)域的深度學習,深度學習是機器學習的一個子集,其中,軟件通過檢查和比較大量數(shù)據(jù)來創(chuàng)建自己的邏輯,機器學習已存在很長時間,但深度學習在過去幾年才開始流行。
人工神經(jīng)網(wǎng)絡(luò)是深度學習算法的基礎(chǔ)結(jié)構(gòu),大致模仿人類大腦的物理結(jié)構(gòu)。與傳統(tǒng)的軟件開發(fā)方法相反,傳統(tǒng)軟件開發(fā)需要程序員編寫定義應用程序行為的規(guī)則,而神經(jīng)網(wǎng)絡(luò)則通過閱讀大量示例創(chuàng)建自己的行為規(guī)則。
當你為神經(jīng)網(wǎng)絡(luò)提供訓練樣例時,它會通過人工神經(jīng)元層運行它,然后調(diào)整它們的內(nèi)部參數(shù),以便能夠?qū)哂邢嗨茖傩缘奈磥頂?shù)據(jù)進行分類。這對于手動編碼軟件來說是非常困難的,但神經(jīng)網(wǎng)絡(luò)卻非常有用。
但由于神經(jīng)網(wǎng)絡(luò)過分依賴數(shù)據(jù),從而引導了神經(jīng)網(wǎng)絡(luò)的犯錯,一些錯誤對人類來說似乎是完全不合邏輯甚至是愚蠢的,人工智能也由此變成了人工智障。例如,2018年英國大都會警察局用來檢測和標記虐待兒童圖片的人工智能軟件就錯誤地將沙丘圖片標記為裸體。
當這些錯誤伴隨著神經(jīng)網(wǎng)絡(luò)而存在,人工智能算法帶來的引以為傲的“深度學習方式”,就成了敵人得以攻擊和操控它們的途徑。于是,在我們看來僅僅是被輕微污損的紅燈信號,對于人工智能系統(tǒng)而言則可能已經(jīng)變成了綠燈,這也被稱為人工智能的對抗性攻擊,即引導了神經(jīng)網(wǎng)絡(luò)產(chǎn)生非理性錯誤的輸入,強調(diào)了深度學習和人類思維的功能的根本差異。
此外,對抗性攻擊還可以欺騙GPS誤導船只、誤導自動駕駛車輛、修改人工智能驅(qū)動的導彈目標等,對抗攻擊對人工智能系統(tǒng)在關(guān)鍵領(lǐng)域的應用已經(jīng)構(gòu)成了真正的威脅。