Artificial Intelligence and Digital Trust | DigiCert Insights

人工智慧
與數位信任

有關人工智慧
與網路安全交叉點的最新深入解析

GenAI:產生新的威脅。與機會。

人工智慧已經在影響著我們生活的許多方面,而且已經影響了幾十年。不管是好是壞,這種情況還會繼續下去。隨著AI日益強大並更深入地融入我們日常現實的結構,因此企業必須實事求是地評估其作為工具和威脅的潛力。

Generative AI | DigiCert Insights

概覽:AI比較AI

  • AI讓好人和壞人都能更快速地大規模開展工作

  • 機器學習在商業領域的普及使其成為一種有吸引力的工具和目標

  • 圍繞AI的炒作有可能掩蓋其風險

  • 新出現的威脅範圍巨大且種類多樣

  • 需要由AI驅動的新的安全方法來對抗AI生成式威脅。 

AI vs. AI | DigiCert Insights

1952

Arthur Samuel開發了首個能自主學習的電腦程式——跳棋遊戲。

97%

的企業主認為ChatGPT將使他們的企業受益。   

來源:Forbes Advisor, 2024

75%

的消費者擔憂使用AI的企業。 

來源:Forbes Advisor, 2024

3/4

接受CSO online面談的企業在過去12個月內看到了網路攻擊的增加,大多數人認為其原因是使用生成式AI的惡意執行者的增加。

來源:CSO Online, 2023

46%

的企業認為,生成式AI使其更容易遭受攻擊。 

來源:CSO Online, 2023

4070億(美元)

預計2027年AI的市場規模將達到4070億美元,2022年為869億美元。

流行語簡介

預測生成式AI技術的真實影響的一個問題是圍繞該技術的瘋狂炒作。甚至生成式AI技術這個詞本身也變得有些陳詞濫調。想讓科技活動的觀眾席爆滿嗎? 將AI放在簡報的標題中即可。想引起人們對您的軟體中的機器學習功能的關注嗎? 將其作為“AI”進行行銷 這帶來了掩蓋技術實際情況的惡果——聳人聽聞的優勢和危險,同時麻醉了許多人對整個討論話題的注意力。

事實上,許多人——尤其是對技術不太瞭解的人——並不真正瞭解AI到底是什麼。 

AI Chip | DigiCert Insights
人工智慧——能思考的機器

簡單來說,人工智慧就是其字面意思:使用電腦系統來類比人類智慧過程。 

示例:語言處理、語音辨識、專家系統和機器視覺。 

Machine Learning | DigiCert Insights
機器學習——能自主思考的機器

演算法控制的電腦系統,能在資料集上進行訓練後自動學習和適應。 

示例:內容推薦演算法、預測分析、圖像識別

Deep Learning | DigiCert Insights
深度學習——像人類一樣思考的機器

一種機器學習技術,使用多層演算法和運算單元來類比類似人腦的神經網路。 

示例:大型語言模型、翻譯、臉部辨識

智能攻擊

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

內容真實性

生成式AI能創建高度逼真的原創內容複本。這不僅給使用AI產生內容的企業帶來了潛在的智慧財產權風險,而且還能讓惡意執行者竊取並如實地複製各種資料,以冒充原創作品或為其他攻擊提供便利。 

身分操縱

生成式AI可以在幾秒鐘內創建超級逼真的圖像和影片,甚至可以在產生即時影片時對其進行更改。這可能會削弱人們對各種重要系統的信心,從臉部辨識軟體到法律系統中的影片證據,再到政治假訊息,並破壞人們對幾乎所有形式的視覺身分的信任。 

使用“炸藥”進行網路釣魚

攻擊者可以使用生成式AI工具來逼真地模擬人臉、聲音和書面語氣,並模仿企業或品牌身分,然後利用這些進行高效且難以檢測的網路釣魚攻擊。 

提示插入

由於許多企業都在使用現成的生成式AI模型,它們可能會將用於訓練或提示其實例的訊息曝露給攻擊者針對熱門模型而改進的插入式攻擊。如果沒有嚴格的保護措施和頻繁的更新,利用基礎模型的可攻擊漏洞可能會將使用該模型的任何組織曝露於眾。  

機器幻覺

儘管AI通常可以快速產生令人信服的語音或文字,但這些並不總是精確的。對於依賴AI為使用者產生訊息或支援內容的企業,以及使用機器學習來進行威脅檢測的企業,問題特別嚴重,因為異常結果的代價可能會非常高昂。 

攻擊複雜性

由於AI能夠以超人的速度編寫功能程式碼,因此它可能被用於以前所未有的速度和複雜性擴充攻擊。此外,AI可被用於在被攻破的程式碼庫中檢測漏洞,並可透過降低進入門檻來擴大攻擊者的範圍。  

自訂的惡意軟體

雖然熱門的LLM對使用者創建惡意程式碼有一些保護措施,但老練的攻擊者可以發現可攻擊的漏洞和薄弱環節。被盜或被複製的模型也可以被去除這種保護措施,使惡意執行者能夠迅速產生幾乎無法檢測的、高度可自訂的漏洞。 

中毒數據

攻擊不一定需要利用AI本身。相反,他們可以針對用於訓練機器學習模型的資料進行虛假輸出。然後,可以進一步利用這一點在模型中創建可攻擊的漏洞,例如在罪犯資料庫中偽造DNA序列,或者只是產生可能損害目標企業的結果。  

隱私外洩

使用敏感性資料訓練或處理敏感性資料的AI可能會曝露這些資料,無論是透過錯誤(就像幾個主要商業模型所發生的那樣),還是透過針對性攻擊。 

來自AI本身

我們要求ChatGPT列出生成式AI帶來的最大威脅。以下是它的回應: 

生成式AI在提供令人難以置信的創新和創造力潛力的同時,也在網路安全領域帶來了獨特的挑戰和威脅。以下是一些需要考慮的重點:

  1. 製作複雜巧妙的虛假內容
  2. 自動化的網路攻擊
  3. 規避傳統安全措施
  4. AI的武器化
  5. 隱私權問題
  6. 數位證據的操縱
  7. AI驅動的網路威脅行為者的出現
ChatGPT Reply | DigiCert Insights

智慧安全

使AI成為壞人的有用工具的功能可以——也必須——被用來加強網路安全措施。這不僅將使企業能開發更有效、更敏捷的網路安全技術,還可以更好地解決人類的漏洞。

Artificial Intelligence and Digital Trust 
更快、更精確的檢測

AI能夠進行人類大腦可能做不到的模式識別。透過為系統和人類行為創建更精細、更全面的基準,機器學習能讓組織識別最細微的異常。

Artificial Intelligence and Digital Trust
快速評估與適應

透過分析外部訊息,例如在其他地方檢測到的威脅,並以比人類更快的速度調整安全措施,AI可以使組織在很短的時間內建立復原力高的、能自我完善的安全性原則。

Artificial Intelligence and Digital Trust
減少人為錯誤

人類往往是任何網路安全方案中最薄弱的環節。透過為某些任務實現自動化並以更高的準確性和速度執行這些任務,AI可以減少人為錯誤,同時為需要人去執行的關鍵任務騰出更多資源。

Artificial Intelligence and Digital Trust 
教育與效率

企業可以使用AI工具進行更真實的模擬和培訓,幫助團隊更快地學習先進的網路安全技術和技能,使專家能更高效地工作,加強創新,並加快新的網路安全工具的產生。

Artificial Intelligence and Digital Trust
網路安全

AI的即時模式識別可以透過重新路由來自易受攻擊伺服器的流量以自動應對威脅,更快、更頻繁地掃描大量装置,在攻擊傳播之前將其隔離,並最大限度地減少敏感性資料的曝露。 

Artificial Intelligence and Digital Trust
威脅應對

由於AI可以跨各種系統和連線立即採取動作,同時處理大量資料,因此它能讓企業減輕極其複雜的攻擊,可能會遠遠早于傳統手段檢測到威脅之前做到這一點。

Artificial Intelligence and Digital Trust
自動化的管理

憑證到期到修正程式管理,AI可以承擔各種繁瑣任務,並幫助企業掌握日常安全狀況。 

Artificial Intelligence and Digital Trust
規模與速度

AI可以在全球範圍內推出並更新原則與解決方案,其速度比人類團隊所能管理的速度高出幾個數量級。 

Artificial Intelligence and Digital Trust
網路釣魚、身分與IP保護

透過教AI識別AI產生的內容,惡意內容、誤導內容或詐騙內容可以在有機會欺騙使用者之前被迅速標示和移除。這不僅可以實現可靠的反網路釣魚計畫,還可以防止其他形式的身分欺騙,並為原創內容和IP提供保護。 

相關資源

網路工作坊
為後量子世界做好準備
Post Quantum Computing Insights
部落格
確定用於進行PQC準備的加密資產
Preparing for the Quantum World with Crypto-Agility
報告
2022年度Gartner PQC報告