Artificial Intelligence and Digital Trust | DigiCert Insights

Inteligência artificial
e confiança digital

Os insights mais recentes da interseção entre IA
e cibersegurança

IA generativa: gerando novas ameaças. E oportunidades.

A inteligência artificial já afeta inúmeros aspectos da nossa vida — e isso ocorre há décadas. Para o bem ou para o mal, isso não vai mudar. No entanto, conforme a IA se torna mais avançada e mais integrada à estrutura de nossa realidade diária, é essencial que as organizações avaliem de forma realista todo o potencial da IA como ferramenta e como ameaça.

Generative AI | DigiCert Insights

Um resumo: IA x IA

  • A IA permite que mocinhos e bandidos trabalhem mais rápido, em maior escala

  • A predominância do aprendizado de máquina nos negócios faz com que ela seja uma ferramenta e um alvo atraentes

  • A empolgação com a IA pode encobrir os riscos

  • O escopo das novas ameaças é imenso e variado

  • Serão necessárias novas abordagens de segurança orientadas por IA para combater as ameaças que ela irá gerar.  

AI vs. AI | DigiCert Insights

1952

Arthur Samuel desenvolve o primeiro programa para o computador aprender por conta própria — um jogo de damas.

97%

Dos donos de empresa acreditam que o ChatGPT vai beneficiar seus negócios.   

Fonte: Forbes Advisor, 2024

75%

Dos consumidores se preocupam com o uso da IA por empresas.  

Fonte: Forbes Advisor, 2024

3/4

As organizações pesquisadas pela CSO Online viram mais ataques cibernéticos ocorrendo em 12 meses, com a maioria atribuindo o aumento ao uso da IA generativa por criminosos.

Fonte: CSO Online, 2023

46%

Das organizações acreditam que a IA generativa as deixa mais vulneráveis a ataques.  

Fonte: CSO Online, 2023

$407 B (USD)

Previsão da participação de mercado da IA para 2027, em comparação a US$ 86,9 bilhões em 2022.

O bingo das palavras da moda

Parte da dificuldade de prever as verdadeiras implicações da tecnologia de IA generativa é o imenso burburinho ao seu redor. O termo se tornou até mesmo uma espécie de clichê. Quer lotar um auditório em um evento de tecnologia? Inclua “IA” no título da sua apresentação. Quer chamar atenção para um recurso de aprendizado de máquina em seu software? Apresente-o como “IA”. O efeito indesejado de tudo isso é encobrir a realidade da tecnologia, sensacionalizando os benefícios e os perigos e, ao mesmo tempo, anestesiando muitas pessoas quanto ao assunto como um todo.

Um problema adicional é que muitas pessoas — especialmente aquelas sem grandes conhecimentos técnicos — não entendem muito bem o que é a IA. 

AI Chip | DigiCert Insights
Inteligência artificial – máquinas que pensam

Em termos simples, a inteligência artificial é exatamente o que parece: o uso de sistemas de computador para simular processos de inteligência humana. 

Exemplos: processamento de linguagem, reconhecimento de voz, sistemas especializados e visão de máquina. 

Machine Learning | DigiCert Insights
Aprendizado de máquina – máquinas que pensam por conta própria

Sistemas de computador regidos por algoritmos que lhes permitem aprender e se adaptar automaticamente após terem sido treinados com um conjunto de dados. 

Exemplos: algoritmos de recomendação de conteúdo, análise preditiva, reconhecimento de imagens

Deep Learning | DigiCert Insights
Aprendizado profundo – máquinas que pensam como nós

Uma técnica do aprendizado de máquina que usa camadas de algoritmos e unidades de computação para simular uma rede neural como o cérebro humano. 

Exemplos: grandes modelos de linguagem (LLM), tradução, reconhecimento facial

Ataques inteligentes

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

Autenticidade do conteúdo

A IA generativa tem a capacidade de criar cópias de conteúdo original que são extremamente realistas. Além dos possíveis riscos à propriedade intelectual para organizações que usam a IA na geração de conteúdo, isso também permite que pessoas mal-intencionadas roubem e copiem todo tipo de dados de forma realista; depois, eles podem ser apresentados como uma criação original ou ser usados para facilitar outros ataques. 

Manipulação de identidade

A IA generativa pode criar imagens e vídeos ultrarrealistas em segundos, e até mesmo alterar vídeo ao vivo conforme ele é gerado. Isso pode reduzir a segurança de diversos sistemas vitais — desde software de reconhecimento facial até provas em vídeo no sistema jurídico e desinformação política — e comprometer a confiança em praticamente todas as formas de identidade visual. 

Phishing usando dinamite

Os invasores podem usar ferramentas de IA generativa para simular rostos, vozes e estilo de escrita de forma realista, além de emular identidade corporativa ou de marca, o que pode vir a ser usado em ataques de phishing extremamente eficazes e difíceis de detectar. 

Injeção de prompts

Como muitas organizações estão usando modelos de IA generativa disponíveis no mercado, elas potencialmente expõem as informações usadas para treinar ou instruir a sua instância a ataques de injeção refinados por invasores que visam os modelos mais usados. Sem proteções rígidas e atualizações frequentes, uma exploração do modelo de base pode expor qualquer organização que use esse modelo.  

Alucinações de máquina

Embora a IA possa produzir texto ou voz convincentes com rapidez, nem sempre eles são precisos. Isso é especialmente problemático para organizações que dependem da IA para gerar conteúdo informativo ou de suporte para os usuários, além de organizações que usam o aprendizado de máquina para a detecção de ameaças, para a qual um resultado anômalo pode ser especialmente custoso. 

Sofisticação dos ataques

Como a IA pode escrever código funcional com velocidade superhumana, ela poderia ser usada para expandir o alcance dos ataques com velocidade e complexidade inéditas. Além disso, a IA pode ser usada para detectar vulnerabilidades em uma base de código comprometida e expandir o escopo dos invasores ao reduzir a barreira de entrada.  

Malware personalizado

Embora os LLMs mais conhecidos tenham alguma proteção contra a criação de código mal-intencionado, invasores sofisticados podem descobrir explorações e brechas. Essas proteções podem estar ausentes de modelos roubados ou copiados, permitindo que pessoas mal-intencionadas gerem rapidamente explorações altamente personalizáveis e quase impossíveis de detectar. 

Dados envenenados

Os ataques não precisam necessariamente explorar a própria IA. Em vez disso, podem visar os dados usados para treinar um modelo de aprendizado de máquina para criar uma saída falsa. Depois, ela pode ser usada para criar explorações no próprio modelo, como a falsificação de uma sequência de DNA em um banco de dados de criminosos, ou simplesmente para produzir resultados prejudiciais à organização visada.  

Vazamentos de privacidade

A IA que é treinada com dados confidenciais ou que os utiliza pode vir a expor esses dados, seja por meio de um bug, como aconteceu com vários dos principais modelos comerciais, ou por um ataque direcionado. 

O que diz a IA

Pedimos ao ChatGPT que listasse as principais ameaças apresentadas pela IA generativa. Esta foi a resposta: 

A IA generativa, embora ofereça potencial incrível para inovação e criatividade, também apresenta ameaças e desafios únicos no campo da cibersegurança. Estes são alguns pontos a considerar:

  1. Criação de conteúdo falso sofisticado
  2. Ataques cibernéticos automatizados
  3. Evasão de medidas de segurança tradicionais
  4. Uso da IA como arma
  5. Preocupações com privacidade
  6. Manipulação de evidências digitais
  7. Surgimento de cibercriminosos capacitados por IA
ChatGPT Reply | DigiCert Insights

Segurança inteligente

Os recursos que tornam a IA uma ferramenta útil para os criminosos podem — e devem — ser usados para fortalecer medidas de cibersegurança. Isso não só permite às organizações desenvolver tecnologias de cibersegurança mais ágeis e eficazes, mas também tratar as vulnerabilidades humanas de forma mais correta.

Artificial Intelligence and Digital Trust 
Detecção mais rápida e mais precisa

A IA pode reconhecer padrões que a mente humana não identificaria. Ao criar uma referência mais detalhada e abrangente de comportamentos humanos e de sistemas, o aprendizado de máquina permite às organizações identificar até mesmo as anomalias mais sutis.

Artificial Intelligence and Digital Trust
Avaliação e adaptação rápidas

Ao analisar informações externas, como ameaças detectadas em outro local, e adaptar medidas de segurança com mais rapidez do que uma pessoa poderia fazer, a IA pode capacitar as organizações a criar políticas de segurança altamente resilientes e autoajustáveis em uma fração do tempo.

Artificial Intelligence and Digital Trust
Redução de erro humano

Em qualquer programa de cibersegurança, as pessoas são o elo mais fraco. Ao automatizar certas tarefas e realizá-las com mais precisão e velocidade, a IA pode reduzir o erro humano e liberar mais recursos para tarefas críticas para as pessoas.

Artificial Intelligence and Digital Trust 
Educação e eficiência

As organizações podem usar ferramentas de IA para realizar treinamentos e simulações mais realistas, ajudar as equipes a aprender tecnologias e técnicas avançadas de cibersegurança com mais rapidez, capacitar os especialistas a trabalhar com mais eficiência, aprimorar a inovação e acelerar a produção de novas ferramentas de cibersegurança.

Artificial Intelligence and Digital Trust
Segurança de rede

O reconhecimento instantâneo de padrões possibilitado pela IA pode ser usado para reagir a ameaças automaticamente com o redirecionamento do tráfego desde servidores vulneráveis, verificar dispositivos variados com mais frequência e velocidade, isolar ataques antes que se disseminem e minimizar a exposição de dados confidenciais. 

Artificial Intelligence and Digital Trust
Resposta a ameaças

Como a IA pode agir instantaneamente em uma variedade de sistemas e conexões ao mesmo tempo em que processa uma grande quantidade de dados, ela permite às organizações atenuar até mesmo os ataques mais sofisticados, potencialmente bem antes que a ameaça possa ser detectada por meios convencionais.

Artificial Intelligence and Digital Trust
Gerenciamento automatizado

Desde a expiração de certificados até o gerenciamento de patches, a IA pode assumir tarefas entediantes e ajudar as organizações a controlar a integridade da segurança do dia a dia. 

Artificial Intelligence and Digital Trust
Escala e velocidade

A IA pode implantar e atualizar políticas e soluções em escala global, a uma velocidade infinitamente superior à de equipes humanas. 

Artificial Intelligence and Digital Trust
Phishing, identidade e proteção de propriedade intelectual

Quando a IA é treinada para reconhecer conteúdo gerado por ela própria, esse conteúdo mal-intencionado, enganador ou fraudulento pode ser marcado e eliminado rapidamente antes que venha a enganar os usuários. Além de capacitar programas antiphishing avançados, isso também pode impedir outras formas de falsificação de identidade e fornecer proteções para conteúdo original e propriedade intelectual.  

Recursos relacionados

WEBINAR
Preparação para um mundo pós-quântico
Post Quantum Computing Insights
Blog
Identificação de criptoativos para preparação para a PQC
Preparing for the Quantum World with Crypto-Agility
Relatório
Relatório de 2022 sobre a PQC - Gartner