Ciberseguridad
Inteligencia artificial
Machine learning

Nueve formas en que los atacantes utilizan el aprendizaje automático

Los algoritmos de aprendizaje automático mejoran las soluciones de seguridad, pero también ayudarán a los actores de amenazas a lanzar ataques más grandes y complejos.

Aprendizaje automático

El aprendizaje automático y la inteligencia artificial (IA) se están convirtiendo en una tecnología central para algunas herramientas de detección y respuesta a amenazas. La capacidad de aprender sobre la marcha y adaptarse a los posibles ataques otorga una gran ventaja a los equipos de seguridad. Sin embargo, muchos grupos de cibercriminales también están utilizando estas tecnologías para escalar sus ataques, evadir los controles de seguridad y encontrar nuevas vulnerabilidades. Todo a un ritmo sin precedentes y con resultados devastadores. Estas son las nueve formas más comunes en que los atacantes aprovechan estos medios.

 

1 Spam

Los defensores han estado utilizando el aprendizaje automático para detectar spam durante décadas, asegura Fernando Montenegro, analista de Omdia. “La prevención es el mejor caso de uso inicial para el aprendizaje automático”. Si el filtro de spam utilizado da razones por las que un mensaje de correo electrónico no se envió o genera algún tipo de puntuación, entonces el atacante puede usarlo para modificar su comportamiento. Estaría usando la herramienta legítima para hacer que sus propias amenazas sean más exitosas. “Si envía cosas con la suficiente frecuencia podría reconstruir cuál era el modelo y luego ajustar su ataque para evitarlo”, expresa el experto.

Pero, no solo los filtros de spam son vulnerables. Cualquier proveedor de seguridad que proporcione una puntuación o algún otro resultado podría ser objeto de abuso. “No todos tienen este problema, pero si no tienes cuidado, se puede utilizar con fines maliciosos”.

 

2 Mejoras en los correos electrónicos de phishing

Los atacantes también están utilizando el aprendizaje automático para crear los correos electrónicos de spam. “Anuncian la venta de estos servicios en foros criminales y los utilizan para generar mejores correos de phishing; con perfiles falsos para elevar campañas de fraude”, asevera Adam Malone, socio de EY. El aprendizaje automático permite a los ‘malos’ personalizar los correos de phishing de manera creativa para que no muestren coreos masivos y estén optimizados para generar participación y clics. No se detienen solo en el texto del correo electrónico. La IA se puede utilizar para generar fotos de aspecto realista, perfiles de redes sociales y otros materiales para que la comunicación parezca lo más legítima posible.

 

3 Mejoras en el robo de contraseñas

Los delincuentes también han mejorado su capacidad de adivinar claves, según Malone. “Hemos visto evidencias de esto en base a la frecuencia y las tasas de éxito de los motores de adivinación”. Están construyendo mejores diccionarios y pirateando hashes robados. Además, pueden identificar los controles de seguridad “para hacer menos intentos y, aun así, aumentar las posibilidades de conseguir acceder a los sistemas”.

 

4 Deep fakes

El uso más aterrador de la inteligencia artificial son las herramientas conocidas como deep fakes que pueden generar vídeos o audios falsos que son difíciles de identificar. “Poder simular la voz o la cara de alguien es muy útil contra los humanos”, dice Montenegro. “Si alguien finge sonar como yo, podrías caer en la trampa”. De hecho, se han hecho públicos un par de casos de alto perfil en los últimos años en los que el audio falsificado cuesta a las empresas cientos de miles o millones de dólares. “La gente ha estado recibiendo llamadas telefónicas de sus jefes que eran falsas”, explica Murat Kantarcioglu, profesor de informática de la Universidad de Texas.

De forma más común, los estafadores usan IA para generar fotos, perfiles de usuarios y correos electrónicos de phishing que parecen realistas para que sus mensajes parezcan más creíbles. Esto supone un gran negocio; según el FBI las estafas de compromiso del correo electrónico comercial generaron pérdidas por más de 43.000 millones de dólares desde 2016.

 

5 Neutralización de las herramientas de seguridad estándar

Muchas herramientas de seguridad populares que se utilizan hoy en día tienen algún tipo de inteligencia artificial o aprendizaje automático integrado. Las herramientas antivirus, por ejemplo, buscan cada vez más comportamientos sospechosos más allá de las firmas básicas. “Cualquier cosa disponible en línea, especialmente de código abierto, podría ser aprovechada por los malos”, dice Kantarcioglu.

Los atacantes pueden usar estas herramientas para modificar su malware y evadir la detección. “Los modelos de IA tienen muchos puntos ciegos. Es posible sortearlos cambiando las características del ataque”.

 

6 Reconocimiento

El aprendizaje automático se puede utilizar para el reconocimiento, de modo que los atacantes puedan observar los patrones de tráfico, las defensas y las posibles vulnerabilidades de su objetivo. Esto no es algo fácil de hacer, por lo que no es probable que sea algo en lo que se involucre el ciberdelincuente medio. Sin embargo, si en algún momento la tecnología se comercializa y se proporciona como un servicio a través de la clandestinidad, entonces podría volverse más accesible. También podría verse “si un actor de amenazas patrocinado por un estado desarrollara un conjunto de herramientas particular que usara el aprendizaje automático y lo lanzara a la comunidad criminal”, expresa Mellen. “Pero los ciberdelincuentes aún necesitarían comprender qué estaba haciendo la aplicación de aprendizaje automático” y cómo aprovecharlo de manera efectiva, lo que crea una barrera de entrada.

 

7 Agentes autónomos

Si una empresa se da cuenta de que está siendo atacada y cierra el acceso a Internet a los sistemas afectados, es posible que el malware no pueda volver a conectarse a sus servidores de control y comando para recibir instrucciones. “Los atacantes pueden querer idear un modelo inteligente que permanezca incluso si no pueden controlarlo directamente, para una persistencia más prolongada”.

 

8 Envenenamiento por inteligencia artificial

Un atacante puede engañar a un modelo de aprendizaje automático al proporcionarle nueva información. “El adversario manipula el conjunto de datos de entrenamiento”, dice Alexey Rubstov, investigador asociado senior del Global Risk Institute. “Por ejemplo, lo sesgan intencionalmente y la máquina aprende de una manera incorrecta”.

Como ejemplo, una cuenta de usuario puede iniciar sesión en un sistema todos los días a las dos de la madrugada para realizar un trabajo inocuo, lo que hace que el sistema piense que no hay nada sospechoso y reduce los obstáculos de seguridad que el usuario tiene que atravesar.

 

9 Fuzzing de inteligencia artificial

Los desarrolladores de software legítimos y los probadores de pentesting usan software fuzzing para generar entradas de muestra aleatorias en un intento de bloquear una aplicación o encontrar una vulnerabilidad. Las versiones mejoradas de este software utilizan el aprendizaje automático para generar las entradas de una manera más enfocada y organizada, priorizando, por ejemplo, las cadenas de texto con mayor probabilidad de causar problemas. Eso hace que las herramientas de fuzzing sean más útiles para las empresas, pero también más letales en manos de los atacantes.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS