TENDENCIAS | Noticias | 27 NOV 2019

11 preguntas a responder antes de comprar un software con inteligencia artificial

Infosec ya es suficientemente complicado. Agregue inteligencia artificial o ‘machine learning’ a la mezcla y podría empezar a pedir problemas a gritos. O bien, elija el proveedor adecuado y termine con los mejores juguetes del barrio. Esto es lo que necesita saber para terminar en el segundo grupo.
inteligencia artificial
Scott Finnie

 

La mayoría de los CISO probablemente creen en el potencial de la inteligencia artificial (IA) y el aprendizaje automático (ML, de machine learning en inglés) para transformar el panorama de seguridad de la información en los próximos tres a cinco años. Eso no significa que no estén hasta el gorro ??de escucharlo. Muchos probablemente considerarían seriamente renunciar a una paga a cambio de no tener que volver a escuchar los términos IA o ML. Casi todos los proveedores de software de seguridad del planeta invocan a la inteligencia artificial como si tuviera propiedades mágicas. Y para empeorar las cosas, muchos vendedores ni siquiera tienen los productos.

¿Existen proveedores de software de seguridad que prometan demasiado y no cumplan con los beneficios de sus implementaciones de IA/ML? "Masivamente", afirma Anton Chuvakin, vicepresidente y analista de Gartner. "Los ejemplos van desde lo más descarado e idiota 'tenemos una IA de grado militar' hasta lo sutil, diciendo 'usamos IA' cuando se refieren al uso de métodos estadísticos fundamentales que tienen 300 años".

El mercado de herramientas de ciberseguridad ha jugado con el término IA hasta el punto de que "los CISO y los CIO ponen los ojos en blanco cuando oyen hablar de otro producto basado en IA", comenta Tom Bain, vicepresidente de estrategia de seguridad en Morphisec. "Conozco a un proveedor que menciona a la inteligencia artificial 22 veces en su página de inicio".

JT Kostman, líder en tecnologías artificiales y de frontera aplicadas en Grant Thornton, opina que "la mayoría de las compañías que afirman tener capacidades de inteligencia IA/ML que he evaluado terminaron teniendo que admitir que sus afirmaciones eran poco más que marketing".

Esa disposición por parte de algunos proveedores para exagerar o fabricar una historia sobre la IA es solo una parte del problema. Casi el 60 por ciento de los encuestados de TI en un nuevo estudio realizado para Webroot admite que, si bien son conscientes de que parte de su software utiliza IA o ML, no están seguros de lo que eso significa. Además, solo el 36% sabe con certeza cómo sus proveedores de ciberseguridad obtienen y actualizan sus datos de amenazas. La encuesta se realizó entre finales de noviembre y principios de diciembre de 2018. Llegó a 400 directores y profesionales de TI superiores, 200 en los EE. UU. y otros 200 en Japón. Muchos expertos y CISO con experiencia en IA instan firmemente a los líderes de Infosec a que entren en el juego para que cuando la IA sea una necesidad absoluta no haya que jugar con tecnología compleja. Por ejemplo, muchas personas subestiman enormemente la cantidad de datos necesarios para entrenar correctamente un modelo de aprendizaje automático. Puede llevarle mucho tiempo construir esos datos. "El error que muchas personas cometen es pensar que la IA tiene que ver con la sofisticación del algoritmo. Y no es así. La clave es que la IA/ML requiere grandes cantidades de datos para su aprendizaje", afirma Thomas Koulopoulos, presidente y fundador de Delphi Group.

Acceda al reportaje completo aquí 



TE PUEDE INTERESAR...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios