Seguridad
Inteligencia artificial
Machine learning

¿Cuál es el verdadero impacto potencial de la inteligencia artificial en la ciberseguridad?

Se necesitan modelos simbólicos y a mayor escala antes de que la inteligencia artificial y el aprendizaje automático puedan afrontar grandes retos como romper los mejores algoritmos de cifrado.

IA

¿Llegará la inteligencia artificial (IA) a ser tan inteligente como para acabar con la seguridad informática? La IA ya está sorprendiendo al mundo del arte al producir obras maestras de cualquier estilo a la carta. Es capaz de escribir poesía mientras desentierra datos arcanos en un vasto repositorio. Si las IA pueden actuar como un bardo al tiempo que ofrecen la potencia exhaustiva de los mejores motores de búsqueda, ¿por qué no pueden hacer añicos también los protocolos de seguridad?

Las respuestas son complejas, evolucionan rápidamente y siguen siendo turbias. La IA facilita algunas partes de la defensa de los ordenadores contra los ataques. Otras partes son más difíciles y puede que nunca cedan ante ninguna inteligencia, humana o artificial. Sin embargo, es difícil saber cuál es cuál. La rápida evolución de los nuevos modelos hace difícil inferir con certeza dónde ayudará o no la IA. La afirmación más peligrosa puede ser: "Las IA nunca harán eso".

 

Definición de inteligencia artificial y aprendizaje automático

Los términos inteligencia artificial y aprendizaje automático se utilizan a menudo indistintamente, pero no son lo mismo. La IA se refiere a la tecnología que puede imitar el comportamiento humano o ir más allá de él. El aprendizaje automático es un subconjunto de la IA que utiliza algoritmos para identificar patrones en los datos y obtener información sin intervención humana. El objetivo del aprendizaje automático es ayudar a los humanos o a los ordenadores a tomar mejores decisiones. Gran parte de lo que hoy se denomina IA en los productos comerciales es, en realidad, aprendizaje automático.

La IA tiene puntos fuertes que pueden ser de utilidad inmediata para las personas que defienden los sistemas y las personas que irrumpen en ellos. Puede buscar patrones en cantidades masivas de datos y, a menudo, encontrar formas de correlacionar sucesos nuevos con otros antiguos. Muchas técnicas de aprendizaje automático tienen un fuerte componente estadístico, al igual que muchos ataques a sistemas informáticos y algoritmos de cifrado. La disponibilidad generalizada de nuevos conjuntos de herramientas de aprendizaje automático está facilitando que atacantes y defensores prueben los algoritmos. Los atacantes los utilizan para buscar puntos débiles y los defensores para estar atentos a las señales de los atacantes.

La IA tampoco está a la altura de las expectativas, y a veces fracasa. Sólo puede expresar lo que está en su conjunto de datos de entrenamiento y puede ser enloquecedoramente literal, como suelen ser los ordenadores. También son impredecibles y no deterministas gracias a su uso de la aleatoriedad, que algunos llaman su "temperatura".

 

Casos prácticos de ciberseguridad para la IA

La seguridad informática también es polifacética y defender los sistemas requiere prestar atención a antiguas ramas de las matemáticas, el análisis de redes y la ingeniería de software. Para complicar aún más las cosas, los humanos son una parte importante del sistema, y comprender sus puntos débiles es esencial. El campo es también una mezcla de muchas subespecialidades que pueden ser muy diferentes. Lo que funciona, por ejemplo, para proteger una capa de red detectando paquetes maliciosos puede ser inútil para endurecer un algoritmo de hash.

"Está claro que hay algunas áreas en las que se puede progresar con las IA", dice Paul Kocher, CEO de Resilian, que ha explorado el uso de nuevas tecnologías para romper algoritmos criptográficos. "Para la caza de errores y la doble comprobación del código, va a ser mejor que el fuzzing [el proceso de introducir pequeños errores aleatorios para desencadenar fallos]". Algunos ya están teniendo éxito con este enfoque. Los ejemplos más sencillos consisten en codificar viejos conocimientos y volver a aplicarlos. Conor Grogan, director de Coinbase, pidió a ChatGPT que comprobara un contrato activo que se ejecutaba en la blockchain de Ethereum. La IA volvió con una lista concisa de puntos débiles junto con sugerencias para solucionarlos.

¿Cómo lo hizo? El mecanismo de la IA puede ser opaco, pero probablemente se basó, de una forma u otra, en discusiones públicas sobre debilidades similares en el pasado. Fue capaz de alinear los antiguos conocimientos con el nuevo código y elaborar una útil lista de problemas que había que resolver, todo ello sin necesidad de programación personalizada ni de la orientación de un experto. Microsoft está empezando a comercializar este método. Ha entrenado a AI Security Copilot, una versión de ChatGPT4 con conocimientos básicos de protocolos y algoritmos de cifrado para que pueda responder a las peticiones y ayudar a los humanos.

Algunos están explotando la profunda y amplia reserva de conocimientos incorporada en los grandes modelos lingüísticos. Los investigadores de Claroty confiaron en ChatGPT como ayuda para ahorrar tiempo gracias a sus conocimientos enciclopédicos de codificación. Fueron capaces de ganar un concurso de hacking utilizando ChatGPT para escribir el código necesario para explotar varios puntos débiles de forma concertada.

Los atacantes también pueden utilizar la capacidad de la IA para dar forma y remodelar el código. Joe Partlow, director técnico de ReliaQuest, afirma que no sabemos realmente cómo "piensan" las IA, y que esta capacidad de ocultación puede ser útil. "Ya vemos modelos de completado de código como Codex o Github Copilot que ayudan a la gente a escribir software", afirma. "Ya hemos visto mutaciones de malware generadas por IA. Entrenar un modelo en, digamos, los ganadores de concursos de C solapados podría utilizarse absolutamente para ayudar a idear puertas traseras efectivas”.

Algunas empresas bien establecidas están utilizando la IA para buscar anomalías en la red y otros problemas en entornos empresariales. Se basan en una combinación de aprendizaje automático e inferencia estadística para detectar comportamientos sospechosos.

 

IA para detectar debilidades y descifrar datos

A pesar de ello hay límites a la profundidad a la que estos escáneres pueden ver los flujos de datos, especialmente los cifrados. Si un atacante fuera capaz de determinar qué paquetes cifrados son buenos o malos, podría romper el algoritmo de cifrado subyacente. La cuestión más profunda es si las IA pueden encontrar puntos débiles en las capas más bajas y fundamentales de la seguridad informática. No ha habido grandes anuncios, pero algunos empiezan a preguntarse e incluso a especular sobre lo que puede o no funcionar.

No hay respuestas obvias sobre las debilidades más profundas. Las IA pueden estar programadas para actuar como humanos, pero en el fondo pueden ser radicalmente diferentes. Los grandes modelos son colecciones de relaciones estadísticas organizadas en múltiples jerarquías. Adquieren sus ventajas con el tamaño y muchos de los avances recientes han venido simplemente de escalar rápidamente el número de parámetros y ponderaciones. En esencia, muchos de los enfoques más comunes para construir grandes modelos de aprendizaje automático utilizan grandes cantidades de matemáticas lineales, encadenando secuencias de matrices y tensores muy grandes. La linealidad es una parte crucial del algoritmo porque hace posible parte de la retroalimentación para el entrenamiento.

Sin embargo, los mejores algoritmos de cifrado se diseñaron para ser no lineales. Algoritmos como AES o SHA se basan en codificar repetidamente los datos haciéndolos pasar por un conjunto de funciones conocidas como S-boxes. Estas funciones se diseñaron cuidadosamente para que fueran muy poco lineales. Y lo que es más importante, los diseñadores de los algoritmos se aseguraron de que se aplicaran suficientes veces para que fueran seguros contra algunos ataques estadísticos bien conocidos.

Algunos de estos ataques tienen mucho en común con las IA modernas. Durante décadas, los criptógrafos han utilizado grandes colecciones de estadísticas para modelar el flujo de datos a través de un algoritmo de cifrado de forma muy parecida a como las IA modelan sus datos de entrenamiento. En el pasado, los criptógrafos realizaban el complejo trabajo de ajustar las estadísticas utilizando sus conocimientos de los algoritmos de cifrado. Uno de los ejemplos más conocidos suele denominarse criptoanálisis diferencial. Aunque fue descrito públicamente por primera vez por Adi Shamir y Eli Biham, algunos de los diseñadores de algoritmos anteriores, como el Estándar de Cifrado de Datos del NIST, dijeron que conocían el método y endurecieron el algoritmo contra él. Algoritmos como AES, que fueron reforzados contra el criptoanálisis diferencial, deberían ser capaces de resistir los ataques de las IA que utilizan en gran medida los mismos enfoques estadísticos lineales.

Hay problemas más profundos. Muchos de los algoritmos de clave pública se basan en números con miles de dígitos de precisión. "Esto no es más que un detalle de implementación", explica Nadia Heninger, criptógrafa de la UCSD, "pero puede ser más profundo, porque estos modelos tienen pesos flotantes y la precisión es muy importante". En este sentido cabe destacar que muchos algoritmos de aprendizaje automático suelen escatimar en precisión porque no ha sido necesaria para el éxito en áreas imprecisas como el lenguaje humano en una era de gramática chapucera, llena de jerga y proteica. Esto sólo significa que algunas de las herramientas disponibles podrían no ser adecuadas para el criptoanálisis. Los algoritmos generales podrían adaptarse y algunos ya están explorando este tema.

 

Una amenaza mayor

Una cuestión difícil, sin embargo, es si la escala masiva marcará la diferencia. Si el aumento de potencia ha permitido a las IA dar grandes saltos para parecer más inteligentes, quizá haya algún umbral que permita a la IA encontrar más agujeros que los antiguos algoritmos diferenciales. Tal vez algunas de las técnicas más antiguas puedan utilizarse para guiar los algoritmos de aprendizaje automático con mayor eficacia.

Algunos científicos especializados en IA imaginan formas de combinar la potencia de los grandes modelos lingüísticos con enfoques más lógicos y métodos formales. El despliegue de mecanismos automatizados para razonar sobre conceptos matemáticos puede ser mucho más potente que tratar simplemente de imitar los patrones de un conjunto de entrenamiento. "Estos grandes modelos lingüísticos carecen de un modelo simbólico de lo que realmente generan", explica Simson Garfinkel, autor de The Quantum Age e investigador de seguridad. "No hay razón para suponer que las propiedades de seguridad estarán integradas, pero ya hay mucha experiencia en el uso de métodos formales para encontrar vulnerabilidades de seguridad".

Los investigadores de IA están trabajando para ampliar la potencia de los grandes modelos lingüísticos injertándoles un mejor razonamiento simbólico. Stephen Wolfram, por ejemplo, uno de los desarrolladores de Wolfram Alpha, explica que éste es uno de los objetivos. "Ahora mismo en Wolfram Language tenemos una enorme cantidad de conocimiento computacional incorporado sobre muchos tipos de cosas", escribió. "Pero para un lenguaje de discurso simbólico completo tendríamos que incorporar 'cálculos' adicionales sobre cosas generales del mundo: Si un objeto se mueve de A a B y de B a C, entonces se ha movido de A a C, etc".

Whitfield Diffie, criptógrafo pionero en el campo de la criptografía de clave pública, cree que enfoques como éste con IA pueden ser capaces de avanzar en áreas nuevas e inexploradas de las matemáticas. Puede que piensen de forma lo bastante distinta a los humanos como para resultar valiosas. "La gente prueba a las máquinas matemáticas con teorías conocidas en las que se han descubierto muchos teoremas, teoremas que la gente ha demostrado y que la gente sabe demostrar", dice. "¿Por qué no probarlos con algo como geometrías de dimensiones superiores en las que la intuición humana es pésima y ver si encuentran cosas que nosotros no podemos?".

Las áreas del criptoanálisis son sólo una son una amplia variedad de áreas matemáticas que no se han probado. Las posibilidades pueden ser infinitas porque las matemáticas en sí mismas son infinitas. "En términos generales, si una IA puede hacer una contribución al descifrado de sistemas que valga más de lo que cuesta, la gente la utilizará", predice Diffie. La verdadera cuestión es cómo.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS