TENDENCIAS | Noticias | 31 ENE 2018

Seis formas en la que los hackers adoptarán 'deep learning'

El uso de tecnologías como 'deep learning' y la inteligencia artificial están propiciando la aparición de amenazas más sofisticadas. Los ciberdelincuentes trabajan en la construcción de sus propias herramientas.
Deep Learning e Inteligencia Artificial
IDGNs

Los algoritmos de aprendizaje automático están mejorando las soluciones ofrecidas por las compañías de seguridad, ayudando a mejorar el papel que habitualmente desempeña el analista humano en la labor de clasificar amenazas de una manera más efectiva. No obstante, estas tecnologías también están propiciando la aparición de amenazas más complejas.

Con la explosión del uso de datos y aplicaciones, no existe otra alternativa para garantizar seguridad que hacer uso de los sistemas automatizados basados en la inteligencia artificial para analizar el tráfico de la red y las interacciones del usuario. El problema es que los ciberdelincuentes son conocedores de todo esto y previsiblemente también están trabajando en construir sus propias herramientas de IA y de aprendizaje automático para lanzar ataques más sofisticados.

1.- Malware más evasivo

El proceso de creación de malware suele ser manual por parte de los ciberdelincuentes. Escriben scripts para formar virus informáticos y troyanos aprovechando los rootkits y robo de credenciales como herramientas para facilitar la ejecución y propagación. ¿Qué sucedería si pudieran acelerar este proceso de creación de malware? Con ayuda del aprendizaje automático todo ello puede mejorarse.

El primer ejemplo conocido data del pasado año con un documento titulado “Generación de ejemplos de malware adversa para ataques Black-Box basados en GAN”. En el informe, los autores revelan cómo construyeron una red adversaria generativa (GAN) con un algoritmo basado en generar muestras de malware capaces de eludir los sistemas de detección basados en el aprendizaje automático empleados por los sistemas de defensa.

Otro ejemplo fue mostrado durante la conferencia DEFCON de 2017 por la compañía Endgame, revelando la creación de malware personalizado utilizando el marco OpenAI de Elon Musk.

Otras investigaciones llevadas a cabo muestran como el aprendizaje automático podría utilizarse en última instancia para modificar el código sobre la marcha en función de cómo y qué se ha detectado en el laboratorio, una extensión del malware polimórfico.

2.- Botnets inteligentes para ataques escalables

Desde la compañía Fortinet aseguran que 2018 va a ser el año del autoaprendizaje de hivenets y swarmbots, hasta el punto de que los dispositivos IoT inteligentes podrán ser dirigidos a atacar sistemas vulnerables de tipo Scada. Serán capaces de hablar entre ellos y tomar medidas basadas en la inteligencia artificial compartida. Los ataques serán de mayor envergadura ampliando sus capacidades para llevar a cabo ataques simultáneos a múltiples víctimas e impedir la mitigación y la respuesta.

3.- Correos spear phishing que se vuelven más inteligentes

Una de las aplicaciones más obvias del aprendizaje automático es el uso de algoritmos como texto a voz, reconocimiento de voz y procesamiento del lenguaje natural (NLP) para una ingeniería social más inteligente. Después de todo, a través de redes neuronales recurrentes, ya es posible enseñar estilos de escritura de software. El aprendizaje automático podría facilitar correos avanzados de spear phishing dirigidos a figuras de alto perfil, mientras se automatiza el proceso como un todo. Dichos sistemas podrían ser entrenados para identificar víctimas potenciales y crear correos electrónicos contextualmente detallados para ataques dirigidos.

Dentro de las predicciones de McAfee Labs, la firma anticipaba que los delincuentes buscarán cada vez más el uso del aprendizaje automático para analizar cantidades inmensas de registros robados con el fin de identificar entre toda la información, registros robados e información valiosa. En base a ello, localizar víctimas potenciales y crear correos electrónicos personalizados.

4.- La inteligencia de las amenazas

En todo lo relacionado con los falsos positivos en la detección de nuevas amenazas, los sistemas de aprendizaje automático ayudarán a los analistas a identificar las amenazas reales provenientes de múltiples sistemas. El hecho de aplicar técnicas de este tipo ofrece avances significativos en el ámbito de la inteligencia de amenazas. Por un lado, el procesamiento y la estructuración de volúmenes tan grandes de datos, incluyendo el análisis de las relaciones complejas dentro de él. Por otro, la automatización que nosotros como seres humanos no podemos llevar a cabo en un período de tiempo similar, permitiendo usar la tecnología para escalar a volúmenes de información muy superiores que de otra forma no podríamos abordar.

5.- Acceso no autorizado

El uso de máquinas vectoriales de soporte SVM para romper un sistema que se ejecuta en imágenes reCAPTCHA ya fue utilizado en el pasado. Todos los mecanismos de captcha se han ido mejorando con el paso del tiempo, pero los investigadores alertan de que estas metodologías de aprendizaje automático permitirán superar todas estas barreras que se superponen a estas medidas, con un porcentaje elevadísimo de precisión.

6.- Envenenar el motor de aprendizaje automático

Una técnica que también se baraja más simple, pero efectiva, es que el motor de aprendizaje automático utilizado para detectar malware podría ser envenenado, dejándolo ineficaz, al igual que los delincuentes han hecho con los motores antivirus en el pasado. Suena bastante simple puesto que el modelo de aprendizaje automático aprende de los datos de entrada. Si ese grupo de datos está envenenado, la salida también se envenena. Investigadores de la Universidad de Nueva York demostraron cómo las redes neuronales convolucionales (CNN) podrían utilizarse para producir estos resultados falsos pero controlados a través de CNN como Google, Microsoft o AWS.

 

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios