Artificial Intelligence and Digital Trust | DigiCert Insights

Intelligenza artificiale
e Digital Trust

Le ultime informazioni sull'interazione tra AI
e Cybersecurity

GenAI: generare nuove minacce. E opportunità.

L'intelligenza artificiale sta influenzando molti aspetti della nostra vita attuale, ma in realtà lo fa già da decenni. Nel bene e nel male, questa situazione andrà avanti. Tuttavia, ora che l'AI è sempre più efficace e profondamente intrecciata con la nostra realtà quotidiana, le aziende sono tenute a valutarne realisticamente l'intero potenziale sia come strumento che come minaccia.

Generative AI | DigiCert Insights

In breve: AI contro AI

  • L'AI permette ad attori sia buoni che cattivi di operare più rapidamente su larga scala

  • La prevalenza del machine learning nelle aziende rende l'AI uno strumento e un target interessante

  • L'entusiasmo per l'AI può nascondere i suoi rischi

  • La portata delle minacce emergenti è enorme e varia

  • Per contrastare le minacce generate dall'AI servono nuovi approcci alla sicurezza basati sull'AI.  

AI vs. AI | DigiCert Insights

1952

Arthur Samuel sviluppa il primo programma per computer che apprende in autonomia: il gioco della dama.

97%

Dei proprietari di aziende ritiene che ChatGPT offra vantaggi alla loro attività.   

Fonte: Forbes Advisor, 2024

75%

Dei consumatori sono preoccupati per l'utilizzo dell'AI da parte delle aziende.  

Fonte: Forbes Advisor, 2024

3/4

Delle aziende intervistate da CSO online segnalano un aumento degli attacchi informatici negli ultimi 12 mesi e la maggior parte di esse attribuisce l'aumento a cattivi attori che utilizzano l'AI generativa.

Fonte: CSO Online, 2023

46%

Delle organizzazioni ritiene che l'AI generativa le renda più vulnerabili agli attacchi.  

Fonte: CSO Online, 2023

$ 407 MLD (USD)

La dimensione del mercato dell'AI prevista per il 2027, in crescita rispetto a $ 86,9 miliardi del 2022.

Scegliere la parola giusta

Ciò che rende difficile prevedere le reali implicazioni dell'AI generativa è il fatto che sia circondata da un gigantesco e costante clamore. Anche il termine stesso è diventato una sorta di cliché. Vuoi riempire la sala di un evento tecnologico? Metti "AI" nel titolo della tua presentazione. Vuoi attirare l'attenzione su una funzione di machine learning del tuo software? Promuovila come "AI". Queste circostanze hanno un effetto negativo: nascondono la realtà della tecnologia, esaltando troppo i benefici e i rischi, e rendendo al contempo indifferenti molte persone sull'argomento nel suo complesso.

A questo si aggiunge il fatto che molti, in particolare i meno esperti di tecnologie, non sanno cosa sia di preciso l'AI. 

AI Chip | DigiCert Insights

Intelligenza artificiale - Macchine che pensano

In parole povere, l'intelligenza artificiale è esattamente ciò che sembra: l'uso di sistemi informatici per simulare i processi di intelligenza umana. 

Esempi: elaborazione del linguaggio, riconoscimento vocale, sistemi esperti e visione artificiale. 

Machine Learning | DigiCert Insights

Machine learning - Macchine che pensano da sole

Sistemi informatici gestiti da algoritmi che gli permettono di imparare e adattarsi automaticamente dopo essere stati addestrati su un set di dati. 

Esempi: Algoritmi di raccomandazione dei contenuti, analisi predittiva, riconoscimento delle immagini

Deep Learning | DigiCert Insights

Deep learning - Macchine che pensano come noi

Una tecnica di machine learning che utilizza più livelli di algoritmi e unità di calcolo per simulare una rete neurale come il cervello umano. 

Esempi: Modelli linguistici di grandi dimensioni, traduzione, riconoscimento facciale

Attacchi intelligenti

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

Autenticità dei contenuti

L'AI generativa ha la capacità di creare copie altamente realistiche di contenuti originali. Questo non solo implica potenziali rischi di proprietà intellettuale per le organizzazioni che usano l'AI per generare contenuti, ma permette anche agli aggressori di rubare e copiare realisticamente ogni tipo di dato, per farlo sembrare una creazione originale o per facilitare altri attacchi. 

Manipolazione dell'identità

L'AI generativa può creare immagini e video ultra-realistici in pochi secondi e persino modificare i video in tempo reale mentre vengono generati. Questo può minare la fiducia in una serie di sistemi fondamentali, dai software di riconoscimento facciale alle prove video nel campo legale fino alla disinformazione politica, compromettendo la fiducia in quasi tutte le forme di identità visiva. 

Phishing ad alto potenziale

Gli aggressori possono utilizzare strumenti di AI generativa per simulare in modo realistico volti, voci e stili di scrittura, nonché emulare l'identità aziendale o del marchio, e utilizzare il tutto per attacchi di phishing ad alta efficacia e difficili da rilevare. 

Rischio injection con i prompt

Le tante organizzazioni che utilizzano modelli di AI generativa già pronti, espongono potenzialmente le informazioni usate per addestrare o fornire prompt alle loro istanze ad attacchi di tipo injection perfezionati dagli aggressori per colpire i modelli più diffusi. In assenza di misure di sicurezza rigorose e di aggiornamenti frequenti, un exploit per il modello di base può esporre qualunque organizzazione utilizzi quel modello.  

Allucinazioni della macchina

Sebbene l'AI sia nel complesso in grado di creare rapidamente un discorso o un testo convincente, non è sempre accurata. Questo è un problema complesso per le organizzazioni che si affidano all'AI per generare contenuti informativi o di supporto per gli utenti, così come per le organizzazioni che utilizzano il machine learning per rilevare le minacce, perché in entrambi i casi un risultato anomalo può rivelarsi molto costoso. 

Accuratezza dell'attacco

Grazie alla sua capacità di scrivere codice funzionale con velocità sovrumana, l'AI può essere impiegata per scalare attacchi con una velocità e una complessità senza precedenti. Inoltre, l'AI può essere utilizzata per individuare le vulnerabilità in una base di codice compromessa e può ampliare il raggio d'azione degli aggressori abbassando la barriera d'ingresso.  

Malware personalizzato

Anche se gli LLM più diffusi hanno alcune protezioni contro la creazione di codice malevolo da parte degli utenti, gli aggressori più sofisticati possono trovare exploit e falle. Inoltre, è possibile privare di tali protezioni i modelli rubati o copiati, consentendo agli aggressori di generare rapidamente exploit quasi non rilevabili e altamente personalizzabili. 

Dati avvelenati

Gli attacchi non richiedono necessariamente un exploit basato su AI. Possono anche mirare ai dati usati per addestrare un modello di machine learning al fine di falsare l'output. Questa azione si può ulteriormente sfruttare per creare exploit all'interno del modello stesso - come falsificare la sequenza di un DNA in un database criminale - o semplicemente per produrre risultati dannosi per l'organizzazione target.  

Fughe di notizie sulla privacy

L'AI addestrata con dati sensibili o coinvolta nella gestione di tali dati, può potenzialmente esporli, sia a causa di un bug, come è accaduto con alcuni dei principali modelli commerciali, sia attraverso un attacco mirato. 

Cosa ci ha risposto l'AI

Abbiamo chiesto a ChatGPT di descrivere le principali minacce dell'AI generativa. Ecco la risposta: 

L'AI generativa, oltre a offrire un incredibile potenziale di innovazione e creatività, comporta anche sfide e minacce uniche nel campo della cybersecurity. Ecco alcuni punti chiave da considerare:

  1. Creazione di contenuti falsi sofisticati
  2. Attacchi informatici automatizzati
  3. Elusione delle misure di sicurezza tradizionali
  4. Possibilità di armare l'AI
  5. Problemi di privacy
  6. Manipolazione di prove digitali
  7. Emergere di attori di minacce informatiche che usano l'AI
ChatGPT Reply | DigiCert Insights

Sicurezza intelligente

Le caratteristiche che rendono l'AI uno strumento utile per i cattivi attori possono, e devono, essere utilizzate per rafforzare le misure di cybersecurity. Questo non solo consentirà alle organizzazioni di sviluppare tecnologie di cybersecurity più agili ed efficaci, ma anche di gestire meglio le vulnerabilità umane.

Artificial Intelligence and Digital Trust 

Rilevamento più rapido e preciso

L'AI è in grado di riconoscere pattern che potrebbero sfuggire a una mente umana. Creando una baseline più granulare e completa dei comportamenti umani e dei sistemi, il machine learning consente alle organizzazioni di identificare anche le anomalie più sottili.

Artificial Intelligence and Digital Trust

Valutazione e adattamento veloci

Analizzando le informazioni esterne, come le minacce rilevate altrove, e adattando le misure di sicurezza più rapidamente di quanto possa fare un essere umano, l'AI può consentire alle organizzazioni di creare policy di sicurezza altamente resilienti e capaci di auto-perfezionarsi in una frazione di tempo.

Artificial Intelligence and Digital Trust

Riduzione degli errori umani

Gli esseri umani sono di norma l'anello debole dei programmi di cybersecurity. Automatizzando alcune attività ed eseguendole con più precisione e rapidità, l'AI può ridurre gli errori umani e liberare risorse per le attività essenziali.

Artificial Intelligence and Digital Trust 

Educazione ed efficienza

Le organizzazioni possono utilizzare gli strumenti di AI per simulazioni e training più realistici, aiutare i team ad apprendere più rapidamente tecniche e tecnologie avanzate di cybersecurity, consentire agli esperti di lavorare in modo più efficiente, migliorare l'innovazione e velocizzare la produzione di nuovi strumenti di cybersecurity.

Artificial Intelligence and Digital Trust

Sicurezza di rete

Il riconoscimento istantaneo dei pattern di AI può aiutare a reagire automaticamente alle minacce reindirizzando il traffico dai server vulnerabili, scansionando una miriade di dispositivi in modo più rapido e frequente, isolando gli attacchi prima che possano diffondersi e riducendo al minimo l'esposizione dei dati sensibili. 

Artificial Intelligence and Digital Trust

Risposta alle minacce

Grazie alla sua capacità di agire all'istante su una serie di sistemi e connessioni, elaborando simultaneamente un'enorme quantità di dati, l'AI consente alle organizzazioni di mitigare anche gli attacchi più sofisticati, potenzialmente molto prima che la minaccia venga rilevata con mezzi convenzionali.

Artificial Intelligence and Digital Trust

Gestione automatizzata

L'AI può farsi carico di attività ripetitive, dalle scadenze dei certificati alla gestione delle patch, aiutando le aziende a mantenere l'igiene della sicurezza quotidiana. 

Artificial Intelligence and Digital Trust

Scalabilità e velocità

L'AI può implementare e aggiornare policy e soluzioni su scala globale a una velocità di gran lunga superiore rispetto a quanto potremmo fare noi. 

Artificial Intelligence and Digital Trust

Phishing, identità e protezione IP

Insegnando all'AI a riconoscere i contenuti generati dall'AI, è possibile taggare ed eliminare prontamente i contenuti malevoli, ingannevoli o fraudolenti prima che possano ingannare un utente. Ciò consente non solo di realizzare solidi programmi anti-phishing, ma anche di prevenire altre forme di spoofing dell'identità e proteggere i contenuti originali e l'IP.  

Risorse correlate

WEBINAR

Prepararsi al mondo post-quantistico

Post Quantum Computing Insights
Blog

Identificare gli asset crittografici per la prontezza alla PQC

Preparing for the Quantum World with Crypto-Agility
Report:

Report Gartner PQC 2022