Ciberseguridad
Código
IA generativa
ChatGPT

ChatGPT no es eficaz para detectar vulnerabilidades en el código desarrollado

Sin embargo, los modelos de aprendizaje automático son muy prometedores a la hora de detectar nuevos ataques de día cero, según un estudio de NCC Group.

low code, desarrollo de código, desarrolladores
Créditos: Charles Deluvio (Unsplash).

La inteligencia artificial (IA) generativa, específicamente ChatGPT, no debe considerarse un recurso confiable para detectar vulnerabilidades en el código desarrollado sin una supervisión humana experta. Sin embargo, los modelos de aprendizaje automático son muy prometedores para ayudar a detectar nuevos ataques de día cero, según un informe de NCC Group.

Se ha hablado mucho de los riesgos de seguridad que introducen los chatbots de IA generativa, como preocupaciones sobre compartir información empresarial confidencial con algoritmos avanzados de autoaprendizaje para que ciberdelincuentes los utilicen para mejorar significativamente los ataques. Asimismo, muchos afirman que, con un uso adecuado, también pueden incrementar las defensas.

 

La supervisión humana sigue siendo crucial

Un área clave de enfoque en el informe es si el código fuente se puede ingresar en chatbot generativo de IA y solicitarle que revise si el código contiene alguna debilidad en una forma interactiva de análisis estático, destacando con precisión las posibles vulnerabilidades para los desarrolladores. A pesar de las promesas y las ganancias de productividad que ofrece la IA en el desarrollo de software, muestra resultados mixtos en su capacidad para detectar eficazmente estos errores.

“La efectividad, o no, de tales enfoques utilizando modelos actuales ha sido objeto de investigación del Grupo NCC y la conclusión es que la supervisión humana experta sigue siendo crucial”, se lee en el documento. Utilizando ejemplos de código inseguro de Damn Vulnerable Web Application (DVWA), se pidió a ChatGPT que describiera las vulnerabilidades en una serie de ejemplos de código fuente PHP. “Los resultados fueron mixtos y ciertamente no es una forma confiable de detectar vulnerabilidades en código desarrollado”.

Otro caso de uso de ciberseguridad defensiva de IA se centra en el uso de modelos de aprendizaje automático para ayudar en la detección de nuevos incidentes de día cero, lo que permite una respuesta automatizada para proteger a los usuarios de archivos maliciosos. “Se probaron varios modelos y el de mayor rendimiento logró una precisión del 98,9%”.

La inteligencia sobre amenazas implica monitorizar múltiples fuentes de datos en línea que proporcionan flujos de datos de inteligencia sobre vulnerabilidades, exploits desarrollados y tendencias y patrones en el comportamiento de los atacantes. “Estos datos son a menudo textuales no estructurados de foros, redes sociales y la Dark Web. Los modelos de aprendizaje automático se pueden usar para procesar ese texto, identificar matices comunes de ciberseguridad en los datos y, por lo tanto, tendencias en tácticas, técnicas y procedimientos de ciberdelincuentes”, según el estudio. Esto permite a los defensores implementar de manera proactiva y preventiva sistemas adicionales de monitorización o control si las nuevas amenazas son particularmente importantes para su negocio o panorama tecnológico.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS