Alerta
Vulnerabilidades

Un fallo crítico de PyTorch pone en peligro datos sensibles de IA

Los investigadores han descubierto un fallo crítico en el sistema RPC distribuido de PyTorch, que permite a los atacantes ejecutar comandos arbitrarios en el sistema operativo y robar datos de entrenamiento de IA.

seguridad_alerta

El popular marco de aprendizaje automático PyTorch ha corregido una vulnerabilidad crítica que podría permitir a los atacantes ejecutar comandos arbitrarios en los nodos maestros, lo que podría conducir al robo de datos sensibles relacionados con la inteligencia artificial (IA).

La vulnerabilidad, rastreada como CVE-2024-5480, se comunicó a través de Huntr.com, una plataforma de recompensas por fallos para aplicaciones de IA y aprendizaje automático (ML, por sus siglas en inglés). El fallo se parcheó en PyTorch 2.2.2 y se calificó con la máxima puntuación de gravedad de 10 en el Sistema de Puntuación de Vulnerabilidades Comunes (CVSS).

PyTorch es un marco para el desarrollo de aplicaciones de ML en los campos de la visión por ordenador y el procesamiento del lenguaje natural (NPL). Es una continuación de la antigua biblioteca Torch, que ya no se mantiene. PyTorch fue desarrollado por el laboratorio de IA de Meta, pero ahora se mantiene como un proyecto de código abierto por la Fundación PyTorch bajo el paraguas de la Fundación Linux.

 

Llamadas a funciones RPC no saneadas

La vulnerabilidad se encuentra en el componente de Llamada a Procedimiento Remoto (RPC) distribuido de PyTorch, torch.distributed.rpc. El componente facilita la comunicación entre procesos entre los distintos nodos implicados en escenarios de formación distribuida, en los que una tarea se distribuye entre múltiples despliegues que funcionan como workers y se controla desde un nodo maestro.

Al utilizar RPC, los workers pueden serializar PythonUDFs (User Defined Functions) y enviarlas al nodo maestro, que las deserializa y ejecuta. El problema es que en las versiones de PyTorch anteriores a la 2.2.2 no hay restricciones para llamar a funciones integradas de Python como eval, lo que permite además ejecutar comandos arbitrarios en el sistema operativo subyacente.

“Un atacante puede explotar esta vulnerabilidad para atacar remotamente nodos maestros que están iniciando un entrenamiento distribuido”, escribieron en su informe los investigadores que reportaron la vulnerabilidad. “A través de RCE [ejecución remota de código], el nodo maestro se ve comprometido, para robar aún más los datos sensibles relacionados con la IA”.

 

Aumento de las vulnerabilidades en las herramientas de IA

Con la adopción de modelos de aprendizaje automático y otras aplicaciones de IA en aumento en todas las industrias, las organizaciones recurren cada vez más a marcos especializados de IA como PyTorch. Estas herramientas pueden tener vulnerabilidades como cualquier otro programa de software, y algunas, al ser bastante nuevas, no han sido tan examinadas por la comunidad de investigación de seguridad.

Es importante incluir los marcos de IA en sus programas de gestión de vulnerabilidades, ya que su compromiso puede tener un gran impacto. Los modelos de ML suelen entrenarse con datos empresariales confidenciales y su producción es muy costosa, ya que su entrenamiento requiere mucha potencia de cálculo y mucho tiempo. Los atacantes pueden aprovechar las vulnerabilidades para robar los datos de entrenamiento o para envenenarlos. Dependiendo del caso de uso del modelo, robarlo para averiguar cómo toma decisiones también puede ser valioso para ciertos tipos de atacantes.



TE PUEDE INTERESAR...

Contenido Patrocinado

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper