Opinión
IA generativa
Especial Tendencias CIberseguridad CSO 2024

El impacto de la inteligencia artificial generativa en ciberseguridad

La popularización de la IA generativa plantea desafíos significativos en el ámbito de la ciberseguridad, que requieren una respuesta integral y proactiva por parte de la industria y las organizaciones involucradas.

Ia generativa

El año 2024 presenta nuevos desafíos y oportunidades en el ámbito de la ciberseguridad, impulsados por la creciente adopción de la inteligencia artificial (IA) generativa. Su popularización ha supuesto, y seguirá suponiendo durante 2024, un reto significativo dentro del sector. Por un lado, su utilización facilitará la entrada de nuevos actores en el mundo de los ataques cibernéticos, incluso de aquellos sin un conocimiento técnico avanzado. Uno de los usos de la IA generativa por parte de dichos actores será la creación de malware o de software para la explotación de vulnerabilidades en sistemas de manera sencilla y rápida. Además, esta tecnología permitirá desarrollar ataques de phishing, smishing o vishing más precisos, explotando perfiles avanzados de las víctimas, generados a partir de datos previamente recopilados (públicos o filtrados).

Un aspecto preocupante en la utilización de la IA generativa es la creación de deepfakes, audios y vídeos falsos, que permiten suplantar la identidad de personas, incluso en tiempo real. Esto representa una amenaza considerable para la seguridad, ya que puede ser utilizada para ejecutar ataques de ingeniería social de manera más eficiente como ya ha ocurrido en los últimos meses.

El año 2024 estará marcado por la coincidencia de múltiples campañas electorales en diferentes partes del mundo (por ejemplo, al Parlamento Europeo, en EEUU, India). Debido a esto, se espera que aumente la incidencia de campañas de desinformación respaldadas por soluciones de IA generativa. Estas campañas no solo afectarán al ámbito político, sino que también podrían dirigirse a empresas y su reputación. Su detección temprana es compleja y la respuesta no siempre es lo suficientemente efectiva.

 

 

La inteligencia artificial no será solo un soporte para los delincuentes, sino que será cada vez más un objetivo en el caso de modelos utilizados en empresas como parte de su negocio

 

 

Además del impacto en la desinformación y los ataques cibernéticos, la IA generativa también podría evolucionar hacia modelos de 'IA generativa como servicio', lo que podría tener implicaciones aún más amplias.

Además de la GenAI, habrá que seguir atentos a otros factores. Se seguirán explotando las vulnerabilidades Zero Day en sistemas, redes y entornos virtualizados continuando con el enfoque de ataques para comprometer la cadena de suministro. Proseguirán los ataques basados en identidad contra los servicios en la nube poniendo en valor, entre otros aspectos, el uso de credenciales robadas. La adopción del lenguaje Rust en la generación de malware dificultará realizar ingeniería inversa. Incluso aunque haya éxitos en desmontar grupos delictivos, como LockBit, el negocio de ransomware y extorsión a partir de datos robados es demasiado lucrativo para los criminales y seguirá creciendo.

La inteligencia artificial no será solo un soporte para los delincuentes, sino que será cada vez más un objetivo (por ejemplo, mediante poisoning) en el caso de modelos utilizados en empresas como parte de su negocio.

Para hacer frente a estos desafíos, es fundamental actualizar los perfiles de formación en ciberseguridad. Esto incluye preparar a los ingenieros en diferentes aspectos relacionados con la inteligencia artificial. El ingeniero de ciberseguridad ha de disponer de los conocimientos para aprovechar la oportunidad que presenta la IA e incorporarla como parte de los sistemas de ciberdefensa. El incremento de amenazas hace imposible escalar la respuesta meramente utilizando el recurso humano. Es necesario continuar el desarrollo de herramientas de soporte basadas en IA que proporcionen un valor al equipo de las empresas, simplificando tareas repetitivas, ayudando a detectar, filtrar y priorizar los posibles incidentes y actuando como un asistente. También es necesario disponer de perfiles especializados en mecanismos de ataque a la IA, como prompt injection, tanto para validar los desarrollos internos como para definir estrategias para desenmascarar ataques basados en IA generativa. Finalmente, el perfeccionamiento de los ataques de ingeniería social con los medios antes comentados fuerza a generar nuevos procedimientos que, sin incrementar la complejidad, aseguren que se validen por diferentes medios las operaciones a realizar (para evitar, por ejemplo, decisiones basadas en intercambios basados en suplantación).

De igual modo, habrá que incluir un enfoque adicional en la formación interna de los empleados, concienciándoles sobre estos nuevos mecanismos de suplantación para incrementar su resistencia ante estas campañas.En resumen, la popularización de la IA generativa plantea desafíos significativos en el ámbito de la ciberseguridad, que requieren una respuesta integral y proactiva por parte de la industria y las organizaciones involucradas.

Este artículo ha sido escrito por Alfonso Sánchez-Macián, director del Máster Universitario en Ciberseguridad de la UC3M.

 

 



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS