Opinión
Ciberseguridad
Inteligencia artificial

Frenemos las prisas por incorporar inteligencia artificial a la ciberseguridad

La IA promete mejorar muchas formas de seguridad y ayudar a aplicar medidas de protección. Sin embargo, tal y como demuestra su respuesta a una sola actualización de Microsoft, aún no es lo bastante rápida ni experta para confiar en ella.

chatgpt

Parece que todo el mundo se está apresurando a integrar la inteligencia artificial (IA) en sus soluciones, y las ofertas de seguridad se encuentran entre las últimas en incorporar esta brillante novedad. Como muchos, veo el potencial de la IA para contribuir a un cambio positivo, pero también su potencial como vector de amenazas.

Para algunos, los recientes avances de la IA son cosa de risa. El 1 de abril de 2023, ese día tradicional en el que a los portales de tecnología y redes sociales les encanta gastarnos una broma rápida y participar en travesuras a menudo elaboradas, la cuenta de Twitter de la plataforma MITRE ATT&CK lanzó el bot de Twitter #attackgpt, que invitaba a los usuarios a emplear el hashtag #attackgpt, lo que generaría una respuesta de "IA" a preguntas sobre la base de conocimientos anti-hacker. En realidad, se trataba de una broma del día de los inocentes en la que el equipo de redes sociales de MITRE daba respuestas divertidas bajo la apariencia de un chatbot.

Desde entonces, para muchos, el auge de los chatbots de IA no es ninguna broma. Los riesgos de abuso inherentes al despliegue de la inteligencia artificial no son nada nuevo para los CISO: las empresas han empezado a establecer divisiones enteras que prometen garantizar que la IA siga principios éticos. Sin embargo, planteo una preocupación más profunda, ¿y si la información que proporciona un bot de seguridad es totalmente errónea? En ciberseguridad, a menudo se necesitan varios recursos e investigadores para llegar a una conclusión sobre el riesgo de una vulnerabilidad. Si una IA no conoce las últimas amenazas o vulnerabilidades, su contribución a la seguridad es defectuosa y podría dejar al usuario expuesto.

 

La primera evaluación no suele ser la correcta

Con demasiada frecuencia, en esta era del periodismo clickbait, veo artículos sobre seguridad demasiado amplios o totalmente erróneos que indican que un problema está más extendido de lo que lo está o que un ataque tiene más alcance de lo que resulta ser. Lo más probable es que las intrusiones afecten a objetivos específicos y no a sectores enteros, pero eso no se sabe por los titulares. Si es de ahí de donde se alimenta una IA, el resultado será igual de equivocado.

A menudo, con las decisiones tecnológicas, la primera determinación de un problema de seguridad puede no ser la correcta. Un ejemplo de ello fueron los titulares de 2021 sobre un ciberataque a una planta de tratamiento de agua de Florida. Aquello preocupó a muchos por la posibilidad de que los atacantes controlaran a distancia los sistemas de agua y los dañaran o envenenaran con demasiados productos químicos. Los ataques dieron lugar a conferencias de prensa e incluso a alertas de la CISA sobre la posibilidad de ataques. Resulta que la causa fundamental fue el comportamiento humano y una mala higiene de seguridad. En lugar de un ciberataque a distancia, los malos actores entraron a través de "la explotación de debilidades de ciberseguridad, incluyendo la escasa seguridad de las contraseñas y un sistema operativo obsoleto".

Si ChatGPT hubiera basado sus recomendaciones y orientaciones en la información de seguridad publicada inicialmente, habría dicho a los usuarios que la culpa era de un atacante remoto y habría proporcionado orientaciones para proteger los sistemas de ataques remotos. En realidad, el problema era realmente el factor humano. En lugar de una guía práctica sobre cómo investigar el fallo humano, se recibiría una guía que, aunque informativa, no sugeriría las acciones reales necesarias para protegerse de la amenaza real en cuestión.

 

Por qué la información precisa es importante

La implementación actual de GPT-4, la última versión de ChatGPT en la que se basa la inteligencia artificial de Microsoft, no está al tanto de las noticias y la información de actualidad. Si le preguntas por la vulnerabilidad de día cero de Outlook que se parcheó en las actualizaciones de Office de marzo, la interfaz oficial de ChatGPT indica que no sabe nada de este reciente problema de seguridad, generando la siguiente respuesta: "Lo siento, pero hasta la fecha de corte de mis conocimientos de 2021, no hay información disponible sobre CVE-2023-23397. Esto se debe probablemente a que se trata de un CVE hipotético que aún no se ha descubierto ni asignado. Es importante tener en cuenta que los CVE son identificadores únicos asignados a vulnerabilidades de ciberseguridad divulgadas públicamente, por lo que es poco probable que se asigne un CVE a una vulnerabilidad en el futuro sin que antes se haya descubierto y divulgado públicamente". “Si tiene más información sobre este CVE, por favor facilítenosla, y haré todo lo posible para ayudarle”.

Si se pregunta a la IA del motor de búsqueda Bing de Microsoft sobre esta cuestión, se recibe una respuesta mejor, pero todavía no todo lo precisa que debería. “CVE-2023-23397 es una vulnerabilidad crítica de elevación de privilegios en Microsoft Outlook en Windows. Se aprovecha cuando una amenaza envía un mensaje especialmente diseñado a un usuario1. El aprovechamiento de esta vulnerabilidad puede dar lugar a un acceso no autorizado a los recursos de una organización. Microsoft ha publicado un parche para esta vulnerabilidad y recomienda a los usuarios que lo apliquen inmediatamente. Si usted cree que puede haber sido atacado o comprometido por actores de amenazas que explotan CVE-2023-23397, Microsoft ha proporcionado orientación para investigar los ataques que utilizan esta vulnerabilidad”.

 

Las orientaciones de la IA se quedan cortas

Aquí es donde creo que la orientación proporcionada por la IA se queda corta. Si preguntas a Bing AI cómo aplicar el parche CVE-2023-23397, te dice: "Para aplicar el parche para CVE-2023-23397 debes instalar la actualización de seguridad de Outlook, independientemente de dónde esté alojado tu correo (por ejemplo, Exchange Online, Exchange Server, alguna otra plataforma). Si tiene un número de compilación igual o superior al que se muestra a continuación, puede continuar. Si su número de compilación es inferior, deberá aplicar el parche a través de Windows Update. Para encontrar tu número de compilación, abre la aplicación (Outlook, por ejemplo) y haz clic en Archivo, Cuenta de Office. La compilación debería estar hacia la mitad de tu ventana".

La plataforma no detalla que para muchas personas el parche de Outlook se recibe silenciosamente y en segundo plano. Lo más probable es que, si tienen la instalación de Microsoft 365 Office instalada, la actualización de seguridad salga en segundo plano en algún momento después del segundo martes del mes. Si le preocupa que los sistemas no reciban las actualizaciones al hacer clic, mi recomendación es que utilice una herramienta de gestión de parches para supervisar las versiones y los números de compilación de las implantaciones de Office 365 en su oficina. Un medio alternativo para asegurarse de que está al día es implementar una secuencia de comandos en las estaciones de trabajo para que comprueben una vez a la semana que las implementaciones de 365 están actualizadas o cuando sea necesario.

 

No es lo suficientemente experta

Para Microsoft 365 ya no hay un "parche" que instalar, sino que el proceso de instalación se realiza en segundo plano y de forma silenciosa para el usuario final. De repente, los parches simplemente están ahí. Sólo si tienes una plataforma de instalación más antigua que utiliza instaladores MSI recibes un parche el segundo martes de cada mes. Así pues, lo que me preocupa del uso de la IA es que carezca de la exactitud necesaria para una orientación adecuada en materia de seguridad, sino que proporcione una información más general que no aporte un contenido suficientemente procesable. En resumen, es erróneo y no conducirá a buen puerto.

La inteligencia artificial puede mejorar lo mejor -y lo peor- del comportamiento humano. Puede proporcionarnos información procesable o basar sus hallazgos en conclusiones inexactas basadas en suposiciones que recoge de conclusiones incorrectas. El Security Copilot de Microsoft, que incluirá IA, ha sido hasta ahora meramente discutido y aún no ha salido al mercado. Puede estar seguro de que me interesará ver si es capaz de recopilar los mejores consejos de seguridad actualizados y descartar los peores.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper