人工智慧已經在影響著我們生活的許多方面,而且已經影響了幾十年。不管是好是壞,這種情況還會繼續下去。隨著AI日益強大並更深入地融入我們日常現實的結構,因此企業必須實事求是地評估其作為工具和威脅的潛力。
AI讓好人和壞人都能更快速地大規模開展工作
機器學習在商業領域的普及使其成為一種有吸引力的工具和目標
圍繞AI的炒作有可能掩蓋其風險
新出現的威脅範圍巨大且種類多樣
需要由AI驅動的新的安全方法來對抗AI生成式威脅。
預測生成式AI技術的真實影響的一個問題是圍繞該技術的瘋狂炒作。甚至生成式AI技術這個詞本身也變得有些陳詞濫調。想讓科技活動的觀眾席爆滿嗎? 將AI放在簡報的標題中即可。想引起人們對您的軟體中的機器學習功能的關注嗎? 將其作為“AI”進行行銷 這帶來了掩蓋技術實際情況的惡果——聳人聽聞的優勢和危險,同時麻醉了許多人對整個討論話題的注意力。
事實上,許多人——尤其是對技術不太瞭解的人——並不真正瞭解AI到底是什麼。
簡單來說,人工智慧就是其字面意思:使用電腦系統來類比人類智慧過程。
示例:語言處理、語音辨識、專家系統和機器視覺。
一種機器學習技術,使用多層演算法和運算單元來類比類似人腦的神經網路。
示例:大型語言模型、翻譯、臉部辨識
Content authenticity
Identity manipulation
Phishing with dynamite
Prompt injection
Machine Hallucinations
Attack sophistication
Custom malware
Poisoned data
Privacy leaks
內容真實性
生成式AI能創建高度逼真的原創內容複本。這不僅給使用AI產生內容的企業帶來了潛在的智慧財產權風險,而且還能讓惡意執行者竊取並如實地複製各種資料,以冒充原創作品或為其他攻擊提供便利。
身分操縱
生成式AI可以在幾秒鐘內創建超級逼真的圖像和影片,甚至可以在產生即時影片時對其進行更改。這可能會削弱人們對各種重要系統的信心,從臉部辨識軟體到法律系統中的影片證據,再到政治假訊息,並破壞人們對幾乎所有形式的視覺身分的信任。
使用“炸藥”進行網路釣魚
攻擊者可以使用生成式AI工具來逼真地模擬人臉、聲音和書面語氣,並模仿企業或品牌身分,然後利用這些進行高效且難以檢測的網路釣魚攻擊。
提示插入
由於許多企業都在使用現成的生成式AI模型,它們可能會將用於訓練或提示其實例的訊息曝露給攻擊者針對熱門模型而改進的插入式攻擊。如果沒有嚴格的保護措施和頻繁的更新,利用基礎模型的可攻擊漏洞可能會將使用該模型的任何組織曝露於眾。
機器幻覺
儘管AI通常可以快速產生令人信服的語音或文字,但這些並不總是精確的。對於依賴AI為使用者產生訊息或支援內容的企業,以及使用機器學習來進行威脅檢測的企業,問題特別嚴重,因為異常結果的代價可能會非常高昂。
攻擊複雜性
由於AI能夠以超人的速度編寫功能程式碼,因此它可能被用於以前所未有的速度和複雜性擴充攻擊。此外,AI可被用於在被攻破的程式碼庫中檢測漏洞,並可透過降低進入門檻來擴大攻擊者的範圍。
自訂的惡意軟體
雖然熱門的LLM對使用者創建惡意程式碼有一些保護措施,但老練的攻擊者可以發現可攻擊的漏洞和薄弱環節。被盜或被複製的模型也可以被去除這種保護措施,使惡意執行者能夠迅速產生幾乎無法檢測的、高度可自訂的漏洞。
中毒數據
攻擊不一定需要利用AI本身。相反,他們可以針對用於訓練機器學習模型的資料進行虛假輸出。然後,可以進一步利用這一點在模型中創建可攻擊的漏洞,例如在罪犯資料庫中偽造DNA序列,或者只是產生可能損害目標企業的結果。
隱私外洩
使用敏感性資料訓練或處理敏感性資料的AI可能會曝露這些資料,無論是透過錯誤(就像幾個主要商業模型所發生的那樣),還是透過針對性攻擊。
我們要求ChatGPT列出生成式AI帶來的最大威脅。以下是它的回應:
生成式AI在提供令人難以置信的創新和創造力潛力的同時,也在網路安全領域帶來了獨特的挑戰和威脅。以下是一些需要考慮的重點:
使AI成為壞人的有用工具的功能可以——也必須——被用來加強網路安全措施。這不僅將使企業能開發更有效、更敏捷的網路安全技術,還可以更好地解決人類的漏洞。