Artificial Intelligence and Digital Trust | DigiCert Insights

Inteligencia artificial
y confianza digital

Últimas novedades sobre la intersección entre la IA
y la ciberseguridad

IA generativa: nuevas amenazas y nuevas oportunidades

La inteligencia artificial ya afecta a muchos aspectos de nuestras vidas, y esto es así desde hace décadas. Para bien o para mal, no es algo que vaya a cambiar. Pero conforme la IA se vuelve cada vez más potente y se integra de forma más profunda en la estructura de nuestra realidad cotidiana, es crucial que las empresas valoren de forma realista todo su potencial como herramienta y como amenaza.

Generative AI | DigiCert Insights

A grandes rasgos: las dos caras de la IA

  • La IA permite llevar a cabo acciones a gran escala más rápido, ya sea con buenas o malas intenciones.

  • La difusión del aprendizaje automático en las empresas hace que resulte apetecible como herramienta y como objetivo.

  • Se habla tanto de las capacidades de la IA que es posible que los riesgos que conlleva queden en segundo plano.

  • El alcance de las amenazas emergentes es enorme y variado.

  • Para combatir las amenazas generadas por la IA, se necesitarán sistemas de seguridad nuevos basados en esta tecnología.  

AI vs. AI | DigiCert Insights

1952

Arthur Samuel desarrolla el primer programa informático capaz de aprender por sí solo: un juego de ajedrez.

97 %

Porcentaje de empresarios que creen que ChatGPT será beneficioso para su negocio.   

Fuente: Forbes Advisor, 2024

75 %

Porcentaje de consumidores a quienes les preocupa que las empresas utilicen la IA.  

Fuente: Forbes Advisor, 2024

3/4

Empresas encuestadas por CSO Online que han observado un aumento en la cantidad de ciberataques sufridos en 12 meses. La mayoría de ellas atribuyen este crecimiento al uso de la IA generativa por parte de los ciberdelincuentes.

Fuente: CSO Online, 2023

46 %

Porcentaje de empresas que creen que son más vulnerables a los ataques por culpa de la IA generativa.  

Fuente: CSO Online, 2023

407 000 mills. (USD)

Tamaño del mercado de la IA previsto en 2027 (en 2022 era de 86 900 millones de dólares).

Un concepto en boca de todos

Parte del problema a la hora de prever las implicaciones reales de la IA generativa es el sensacionalismo con el que se está abordando y lo muchísimo que se habla de ella. El propio término se ha convertido en una especie de cliché. ¿Quiere llenar un auditorio en un evento tecnológico? Incluya la palabra «IA» en el título de la presentación. ¿Quiere resaltar una función de aprendizaje automático de su software? Comercialícela llamándola «IA». Por desgracia, de este modo se acaba perdiendo de vista la realidad de la tecnología: se habla de forma sensacionalista tanto de sus ventajas como de sus peligros y, al mismo tiempo, mucha gente se acaba cansando del tema.

A esto se suma el hecho de que muchas personas (sobre todo las que tienen menos conocimientos técnicos) no entienden exactamente qué es la IA. 

AI Chip | DigiCert Insights
Inteligencia artificial: máquinas capaces de pensar

Dicho de manera sencilla, la inteligencia artificial es justo lo que sugiere su nombre: el uso de sistemas informáticos para simular los procesos de la inteligencia humana. 

Por ejemplo, el procesamiento del lenguaje, el reconocimiento del habla, los sistemas expertos y la visión automática. 

Machine Learning | DigiCert Insights
Aprendizaje automático: máquinas que piensan por sí solas

Sistemas informáticos gobernados por algoritmos que les permiten aprender y adaptarse automáticamente después de haber sido entrenados con un conjunto de datos. 

Por ejemplo, los algoritmos de recomendación de contenidos, el análisis predictivo y el reconocimiento de imágenes.

Deep Learning | DigiCert Insights
Aprendizaje profundo: máquinas que piensan como nosotros

Técnica de aprendizaje automático que utiliza capas de algoritmos y unidades de computación para simular una red neuronal como la del cerebro humano. 

Por ejemplo, los modelos de lenguaje de gran tamaño, la traducción y el reconocimiento facial.

Ataques inteligentes

Content authenticity

Identity manipulation

Phishing with dynamite

Prompt injection

Machine Hallucinations

Attack sophistication

Custom malware

Poisoned data

Privacy leaks

Autenticidad de los contenidos

La IA generativa permite crear copias muy realistas del contenido original. Esta capacidad, además de plantear posibles riesgos relativos a la propiedad intelectual para las empresas que generen contenidos con la IA, ofrece a los ciberdelincuentes la posibilidad de robar todo tipo de datos, crear copias realistas de ellos y hacerlas pasar por creaciones originales o bien utilizarlas para perpetrar otros ataques. 

Manipulación de identidades

La IA generativa puede crear imágenes y vídeos ultrarrealistas en cuestión de segundos, e incluso modificar vídeos en directo según se generan. Esto puede minar la confianza en diversos sistemas esenciales (como el software de reconocimiento facial o los vídeos utilizados como pruebas en el ámbito jurídico, además de poder utilizarse como arma de desinformación política) y hacer que prácticamente todas las formas de identidad visual dejen de ser fiables. 

Phishing con dinamita

Los atacantes pueden utilizar herramientas de IA generativa para simular rostros, voces y estilos de escritura con un gran nivel de realismo, así como para emular identidades de marca o corporativas con el fin de lanzar ataques de phishing muy eficaces y difíciles de detectar. 

Inyección de prompts

Como muchas empresas utilizan modelos de IA generativa listos para usar, podrían estar exponiendo la información empleada para entrenar o dar instrucciones a su instancia a ataques de inyección que los ciberdelincuentes ajustan para dirigirlos contra modelos populares. Sin protecciones rigurosas y actualizaciones frecuentes, un ataque al modelo de base podría poner en peligro a cualquier empresa que utilice dicho modelo.  

Alucinaciones artificiales

Aunque en general la IA es capaz de producir textos escritos u orales a gran velocidad, no siempre funciona bien. Esto resulta problemático en particular para las empresas que recurren a la IA para generar contenido informativo o de asistencia para los usuarios, así como para las que usan el aprendizaje automático para detectar amenazas, pues en estos casos los resultados anómalos pueden salir especialmente caros. 

Ataques sofisticados

Como la IA escribe código funcional a una velocidad sobrehumana, podría utilizarse para lanzar ataques con una rapidez y un nivel de complejidad sin precedentes. Además, la IA se podría utilizar para detectar vulnerabilidades en un código expuesto y podría ampliar el alcance de los atacantes mediante la eliminación de las protecciones.  

Malware personalizado

Aunque los modelos de lenguaje de gran tamaño (LLM) más utilizados tienen ciertas protecciones para evitar que los usuarios creen código malicioso, los ciberdelincuentes más avanzados saben cómo sortearlas o superarlas. Además, es posible despojar los modelos robados o copiados de dichas protecciones, lo que permite generar con rapidez ataques prácticamente indetectables y muy personalizables. 

Datos envenenados

Los ataques no tienen por qué aprovechar la IA en sí. En ocasiones, lo que hacen es atacar los datos utilizados para entrenar un modelo de aprendizaje automático con el fin de falsear los resultados. Después, esto podría aprovecharse para crear vulnerabilidades dentro del propio modelo (por ejemplo, para falsificar una secuencia de ADN en una base de datos de delincuentes) o simplemente para producir resultados que perjudiquen a la organización atacada.  

Filtraciones de datos confidenciales

Cuando la IA se entrena con datos confidenciales o maneja este tipo de información, esta podría verse expuesta, ya sea debido a un fallo, como ha ocurrido con varios de los principales modelos comerciales, o a causa de un ataque dirigido. 

¿Qué opina la IA?

Hemos preguntado a ChatGPT cuáles son las principales amenazas que supone la IA generativa. Esta ha sido su respuesta: 

Aunque la IA generativa ofrece un potencial increíble en términos de innovación y creatividad, también presenta sus propios retos y amenazas en el ámbito de la ciberseguridad. Los aspectos clave son los siguientes:

  1. Creación de contenido falso sofisticado
  2. Ciberataques automatizados
  3. Evasión de las medidas de seguridad tradicionales
  4. Uso de la IA como arma
  5. Preocupaciones relativas a la privacidad
  6. Manipulación de pruebas digitales
  7. Emergencia de ciberdelincuentes dotados de IA
ChatGPT Reply | DigiCert Insights

Seguridad inteligente

Las características que hacen de la IA una herramienta útil para la ciberdelincuencia pueden (y deben) utilizarse para reforzar las medidas de ciberseguridad. De este modo, no solo las organizaciones podrán desarrollar tecnologías de ciberseguridad ágiles y más eficaces, sino que además abordarán mejor las vulnerabilidades humanas.

Artificial Intelligence and Digital Trust 
Detección más rápida y precisa

La IA es capaz de reconocer patrones que podrían pasar inadvertidos para la mente humana. Al crear un valor de referencia más detallado y exhaustivo de los comportamientos humanos y los sistemas, el aprendizaje automático permite detectar hasta las anomalías más sutiles.

Artificial Intelligence and Digital Trust
Rapidez de evaluación y adaptación

Al analizar información externa, como las amenazas detectadas en otros lugares, y adaptar las medidas de seguridad a una velocidad imposible para un ser humano, la IA permite a las organizaciones crear políticas de seguridad muy resilientes que se ajustan automáticamente y en poquísimo tiempo.

Artificial Intelligence and Digital Trust
Reducción de los errores humanos

Los humanos suelen ser el eslabón más débil de cualquier programa de ciberseguridad. Al automatizar ciertas tareas y llevarlas a cabo con más precisión y rapidez, la IA reduce los errores humanos y libera recursos que se podrán dedicar a tareas cruciales que sí requieran intervención humana.

Artificial Intelligence and Digital Trust 
Formación y eficiencia

Las herramientas de IA se pueden usar para llevar a cabo simulaciones y cursos de formación más realistas, ayudar a los equipos a aprender más rápido tecnologías y técnicas de ciberseguridad avanzadas, dotar a los expertos de recursos para trabajar con más eficiencia, mejorar la innovación y acelerar la producción de nuevas herramientas de ciberseguridad.

Artificial Intelligence and Digital Trust
Seguridad de la red

El reconocimiento de patrones instantáneo que ofrece la IA se puede utilizar para reaccionar automáticamente a las amenazas redirigiendo el tráfico procedente de los servidores vulnerables, para analizar un sinfín de dispositivos con más rapidez y una mayor frecuencia, para aislar los ataques antes de que se propaguen y para minimizar la exposición de los datos confidenciales. 

Artificial Intelligence and Digital Trust
Respuesta a las amenazas

Como la IA puede actuar al instante en diferentes sistemas y conexiones al tiempo que procesa una cantidad ingente de datos, permite mitigar incluso los ataques más sofisticados, posiblemente mucho antes de que la amenaza sea detectable para los medios convencionales.

Artificial Intelligence and Digital Trust
Gestión automatizada

La IA puede ocuparse de tareas tediosas como la renovación de los certificados cuando caducan o la gestión de las actualizaciones, para ayudar a las empresas a tener siempre al día sus medidas de seguridad cotidianas. 

Artificial Intelligence and Digital Trust
Escala y velocidad

La IA es capaz de implantar y actualizar políticas y soluciones a escala global y a una velocidad muchísimo mayor de la que sería posible para un equipo de personas. 

Artificial Intelligence and Digital Trust
Defensa contra el phishing y protección de las identidades y la propiedad intelectual

Si se enseña a la IA a reconocer el contenido generado con IA, será posible etiquetar con rapidez el contenido malicioso, engañoso o fraudulento y eliminarlo antes de que un usuario caiga en sus redes. De este modo, no solo será posible implantar programas muy eficaces contra el phishing, sino que además se evitarán otras formas de suplantación de identidades y se protegerá el contenido original y la propiedad intelectual.  

Recursos relacionados

SEMINARIO WEB
Cómo prepararse para la era poscuántica
Post Quantum Computing Insights
Blog
Identificación de activos criptográficos: prepárese para la PQC
Preparing for the Quantum World with Crypto-Agility
Informe
Informe de Gartner sobre PQC de 2022