AI 正變成黑客手中的強大武器

去年,兩位來自資訊保安公司ZeroFOX的資料科學家做了一組實驗,他們想測試人工智慧演算法是否比人類更容易欺騙Twitter使用者點選惡意連結。科學家們從社交網站收集使用者行為資料來訓練模型,然後以此設計並生成惡意連結誘餌。在測試中,人工智慧的表現顯著超越了人類對手,它們撰寫和釋出假訊息的能力遠勝人類,而且轉化率還更好。

這個AI名叫SNAP_R,它以每分鐘6.75條訊息的速率向800名使用者傳送釣魚訊息,其中有275名使用者成功上鉤。相比之下,來自福布斯的專業作家Thomas Fox-Brewster平均每分鐘只能產出1.075條訊息,總共傳送了129名使用者,而僅有49名使用者被吸引。


是人類還是機器人?真的很難辨別。(圖片來源:ZeroFOX)

幸好這只是一次實驗,但是結果顯然已經告訴我們,黑客們已經可以利用AI技術完成那些不可告人的陰謀。也許他們已經在用了,只是我們很難辨別。今年7月,數百名網路安全專家齊聚拉斯維加斯,參加[2017美國黑帽子大會](Black Hat USA 2017),共同探討新興技術所帶來的威脅。會議期間做了一次投票,讓參會嘉賓預測未來幾年黑客是否會利用AI技術從事犯罪活動,有62%人表示肯定。

如果這項非正式投票的結果令人信服,那麼拒絕承認AI技術存在將來被黑客利用的可能性的安全專家數量則多得驚人。儘管與記者交流過的大多數資訊保安專家都承認黑客正在使用AI技術,也承認黑客對新技術的掌握程度超乎多數人的認知,但是他們的立場就是這麼讓人費解。

“黑客早就開始把人工智慧當做武器使用了”,Cylance首席安全資料科學家Brian Wallace在與Gizmodo的採訪中說到,“這很容易理解,因為黑客追求規模效應,他們試圖攻擊儘可能多的目標使用者,同時降低自身的風險。人工智慧和機器學習則是他們實現目標的完美工具”。他認為,這些技術可以輔助黑客們決策攻擊的物件、攻擊的方式和時機等等因素。

多元化的智慧

《未來犯罪》的作者 Marc Goodman 表示,他對黑帽利用新興技術並不感到意外,因為AI技術多年來一直被用於網路攻擊。

“讓我感到一絲奇怪的是62%的資訊保安專家正在做一個AI預測”,Goodman 告訴 Gizmodo,“很多不同的人從不同的角度定義AI,我想進一步明確他們對AI的定義是什麼”。

事實上,專家在這個定義上很可能出現意見分歧。

由於技術的飛速發展,我們對人工智慧的概念本身就隨著時間而變化。在最根本的層面上,智慧指的是代理物件解決問題的能力,不論是生物方面還是機械方面。我們擁有許多具有這種功能的工具,而且早就被髮明瞭,所以現在我們把這些工具的能力看作是理所當然的。

比如,幾個世紀以前的人們會覺得計算能力成百上千倍超越人類的計算器必然是顛覆性的技術突破,但是如今很少有人把這種低端計算器看作是稀罕物。同樣的,贏得國際象棋比賽被認為是人類高智商的表現,但是隨著1997年深藍擊敗Garry Kasparov,這種認知技能已經失去了昔日的光澤。AI技術的每一次突破都是如此。

毫無疑問,機器智慧和神經網路等現代工具屬於人工智慧的一種形式,如果我們不承認,則要為此承擔相應的後果。

現如今,機器學習、自然語言處理、神經網路以及許許多多相關領域的快速發展使得我們對機器智慧門檻的認知持續降低。在不久的將來,人工智慧助手(比如Siri和Alexa)、自動駕駛汽車、疾病診斷演算法都會褪去人工智慧的光環。到那時,我們又會把這些技術看作是理所當然的,並且批評它們的功能相比人類還不夠完美。毫無疑問,機器智慧和神經網路等現代工具屬於人工智慧的一種形式,如果我們不承認,則要為此承擔相應的後果;如果我們無視或者忽視這些工具的力量,那我們可能會被那些竭力挖掘AI潛能的人所愚弄,就比如黑客們。

不得不提到一點,人工智慧這個詞所包含的未來願景和科學幻想正在與我們的真實世界漸行漸遠。

“人工智慧這一術語常被誤解,很多人容易聯想到終結者機器人追捕John Connor,但那不是AI”,Wallace 說,“相反,這是一個廣泛的研究課題,圍繞著創造各種形式的智慧展開”。

Wallace 說AI有很多細分的領域,機器學習是當前AI的一個特別重要的子集。

“在日常工作中,我們用機器學習演算法解決一個具體的問題,它屬於人工智慧的一種形式”,Wallace 告訴 Gizmodo,“比如說,我們用機器學習來預測某個檔案或是程序是否是惡意的。我們不需要搭建一個類似SkyNet的系統。人工智慧並不都像媒體和科幻小說所描繪的,而當我們[資訊保安專業人員]談AI技術時,我們是談論更廣闊領域的研究。”

邪惡的意圖

這些現代工具似乎並沒有像《終結者》的場景那麼可怕,但若是落到壞人的手中,它們仍然會讓人畏懼。

Deepak Dutt 是移動安全公司 Zighra 的創始人和CEO,他認為在不久的將來精細的人工智慧技術很有可能被用於網路攻擊,而且在俄羅斯、中國等國家可能已經被使用。至於如何將AI用於歧途,Dutt簡直是信手拈來。

“人工智慧可以用來挖掘公共網站和社交網路的大資料,從中提取使用者的出生日期、性別、常住地、電話號碼、電子郵件地址等個人資訊,這些個人資訊可被用於黑入該使用者的賬戶”,Dutt告訴Gizmodo,“它還可以用來自動監控電子郵件和簡訊,併為社會工程攻擊建立個性化的網路釣魚郵件(網路釣魚是指非法獲取可疑使用者的敏感資訊)。AI還可以用於生產惡意軟體,並支援更智慧的尋找和挖掘系統中的漏洞”。

Dutt懷疑AI技術已經被用於網路攻擊,罪犯已經掌握了部分機器學習的技術,比如自動生成個性化的網路釣魚郵件。

Dutt又提到,“使用新的機器學習技術能夠實現我剛才提到的情況,準確率和效率更高,像深度學習模型。”深度學習又稱為分層學習,是一種使用大型神經網路模型的機器學習方法。它已經應用於計算機視覺、語音識別、社交網路過濾等諸多複雜任務,產生的效果往往優於人類專家。

“此外,大量社交網路和公共資料集也有所幫助。先進的機器學習和深度學習技術現在可以在開源平臺上輕鬆獲得,再與相對便宜的計算硬體設施相結合,輕而易舉地使得網路攻擊更加複雜。

據Goodman說,如今大規模的網路攻擊已經實現自動化。黑客人肉攻擊某個目標的情況已經非常罕見,更常見的方法是利用AI工具和機器學習方法進行自動攻擊。儘管有人質疑自動化指令碼本質上並不算人工智慧,但是可以通過機器智慧來編排這些自動化指令碼,快速生成複雜的、高精準的攻擊指令碼,速率和效果遠遠超過任何一個黑客。

事實上,這種場景幾乎是無窮無盡的。除了剛才描述的犯罪活動之外,人工智慧還可以用來攻擊易受攻擊的人群、高速執行黑客程式、開發智慧惡意軟體、等等。

Recorded Future的CTO Staffan Truvé先生認為,隨著人工智慧技術的成熟和通用化,“壞傢伙們”會利用它們來提高攻擊的效能,同時降低成本。Truvé與他多數同事的觀點不同,他不認為現在黑客已經使用了AI技術,聲稱簡單的演算法(如自修改程式碼)和自動化方案目前仍然很管用。

“我認為AI還沒有成為壞人們的工具箱的標準配置”,Truvé說,“我認為在現實的攻擊中沒有看到很多AI技術的原因是傳統的方法仍然有效,如果用老式暴力方法仍然可以獲得你需要的東西,那麼何必要花時間和金錢去換新的技術呢?”

AI對抗AI

由於人工智慧技術已經成為新一代黑客的武器,那麼防禦者必須想出新辦法來保護那些脆弱的系統。值得慶幸的是安全專家已經有了一個相當有力和明顯的對策,即人工智慧技術本身。問題是敵我陣營之間必然會產生軍備競賽。但是任何一方都沒有選擇餘地,唯一的辦法就是越來越依賴智慧系統來對付敵人。

一旦開始處理對手,你別無選擇只能拿起AI來武裝自己。

“對於安全專家來說,這是一個大資料問題,我們處理的資料超過了單個人可能產生的大量資料”,Wallace說,“一旦開始處理對手,你別無選擇只能拿起AI來武裝自己”。

為了處於領先地位,Wallace建議安全公司開展自己內部的研究,發展自己的人工智慧技術來對抗,測試防禦能力。他把這種方式稱為“以牙還牙”。五角大樓的高階研究機構DARPA已經採用了這種方法,組織挑戰賽讓AI開發人員在虛擬遊戲中互相奪旗。這個過程非常像達爾文主義,不禁讓人聯想到另一種人工智慧發展方式,即進化演算法。對於黑客和資訊保安從業者來說,適者生存。

Goodman 表示同意,他表示要不遺餘力地將AI技術應用於所有場景,從欺詐檢測到對付一切網路攻擊。Goodman透露,事實上一些公司已經在這樣做了,它們與IBM的沃森合作打擊網路威脅。

在Truvé的公司Recorded Future,他們使用自然語言處理技術來分析犯罪論壇的內容,自動檢測關於網路攻擊的計劃和討論,以消除潛在的威脅。

他說:“壞傢伙們的網路攻擊從來不會停止,只是效率更高了,因此需要研發基於AI的防禦機制,確保在很大程度上能夠抵禦基於AI的攻擊。”

Dutt建議資訊保安團隊持續監視黑客的網路攻擊活動,並從中學習並不斷創新,“結合有監督學習和無監督學習的防禦策略在第一時間檢測和阻止攻擊跡象”,就像在戰爭中採用優質防禦策略那樣。

旁觀者效應

因此,罪犯越來越能精準定位弱勢使用者和系統,充滿AI技術的黑客時代來臨。與此同時,電腦保安公司則要全力以赴的發展和依靠人工智慧技術進行對抗。最終,這些工具將擺脫人類的理解和控制,在一個新興的數字生態系統中以閃電般的速度運作。到那時,無論是黑客還是資訊保安從業者都只需點選各自系統的“開始”,餘下的就是期待一個好結果。人工智慧的後果之一就是人類越來越被排除在圈子之外。

原文:https://gizmodo.com/hackers-have-already-started-to-weaponize-artificial-in-1797688425
作者: George Dvorsky
譯者:KK4SBB


這裡寫圖片描述
CSDN AI熱衷分享 歡迎掃碼關注