Seguridad
Ciberseguridad

Inundaciones: métodos para romper sistemas de seguridad basados en IA

Muchos sistemas de defensa necesitan ser actualizados y comprobados constantemente para hacer frente a un panorama de amenazas en continua evolución.

mercado de seguridad

Las tecnologías machine learning pueden ayudar a las empresas a detectar, entre otras cosas, comportamientos sospechosos de los usuarios, software malicioso o compras fraudulentas. Pero, a pesar de que los sistemas de defensa se están haciendo más sofisticados, los atacantes acaban encontrando modos para evitarlos. Así, muchas de las herramientas de las organizaciones necesitan ser actualizadas constantemente para responder apropiadamente a las amenazas.

En cuanto a la seguridad física, hay errores en las herramientas que los ladrones aprovechan para actuar. Por ejemplo, comúnmente las alarmas anti incendios han sido propensas a activarse cuando se metían determinados alimentos en el microondas o en el horno, lo que ha llevado a reemplazar estos sensores por otros menos sensibles o a alejarlos directamente de las cocinas. “Si hay un detector de movimiento, y yo monto en bicicleta cerca todos los días para activarlo, conseguiría que la empresa apagase el detector o lo recalibrase”, ha asegurado Steve Gorbman, miembro de Intel. “Ahí tendría una oportunidad para entrar”.

A la utilización del mismo enfoque contra los sistemas de aprendizaje automático se ha bautizado como inundación. “En cuestiones de ciberseguridad, siempre va a haber alguien al otro lado con el objetivo de que los modelos fracasen”.

Con las inundaciones los atacantes aumentan las señales, a veces gradualmente, hasta el punto en que éstos pueden llegar incluso a pasar por actividad legítima para la empresa. O un ataque de denegación de servicio DDoS puede llevar hacer esta función. Para hacer frente a esto, las empresas necesitan tener una visión que vaya más allá del análisis de datos.

“Estamos ante un ecosistema cambiante, y tanto el aprendizaje automático como la inteligencia artificial no son mágicos. Se necesita la participación y el ingenio de los humanos”, ha indicado Zulfikar Ramzan, CTO de RSA Security.

Hasta ahora, al menos se necesitaba la experiencia humana para entender que el detector de humo estaba demasiado cerca del microondas o que era el chico que paseaba en bicicleta quien activaba la alarma.

En términos de ciberseguridad, esto significa que es esencial comprender como funciona el negocio, y si los cambios de comportamiento de los particulares tienen sentido o pueden indicar comportamientos sospechosos.

De manera similar, la experiencia puede ayudar a los defensores a identificar los intentos de manipulación de los conjuntos de datos que se están utilizando para entrenar sistemas de machine learning.

Los profesionales de seguridad necesitan tener una estrategia establecida para averiguar si un atacante está tratando de engañar a una IA para hacerla tomar decisiones equivocadas. “Si alguien toma el camino erróneo basado en datos que cree ciertos, ¿cuánto tiempo podría tardar en descubrir el fallo?”, ha apostillado Ramzan. “La percepción de las personas jugará un papel en este tema”, ha indicado Elizabeth Lawler, CEO y cofundadora de Conjur. “No existen varitas mágicas”.

En particular, las compañías han de procurar de no olvidarse de los sistemas que dan por seguros. “Comprobar estos sistemas puede llegar a ser una tarea rutinaria y molesta, por ello puede ser una buena idea la de considerar a un proveedor de servicios de seguridad administrados”, ha añadido. “Además, los usuarios siempre van a ser el eslabón más débil sin importar cualquier sistema que se ponga en marcha”.

 



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper