Ciberseguridad
Google
IA generativa

Google lanza un marco de seguridad para las tecnologías de inteligencia artificial generativa

Está diseñado para ayudar a mitigar los riesgos específicos de los sistemas de IA, como el robo de modelos, el envenenamiento de datos de entrenamiento y las inyecciones maliciosas.

Google

Google ha anunciado el lanzamiento de Secure AI Framework (SAIF), un marco conceptual para proteger los sistemas de inteligencia artificial (IA). La tecnológica es propietaria del chatbot generativo IA Bard y empresa matriz del laboratorio de investigación DeepMind. Y, ahora, estima que un marco en los sectores público y privado es “esencial” para asegurarse de que los actores responsables salvaguarden la tecnología que respalden los avances en IA para que cuando se implementen los modelos sean seguros por defecto. Su nuevo concepto es un paso en esa dirección.

SAIF está diseñado para ayudar a mitigar los riesgos específicos de los sistemas de IA, como el robo de modelos, el envenenamiento de los datos de entrenamiento, las entradas maliciosas a través de inyección rápida y la extracción de información confidencial. “A medida que las capacidades de IA se integren cada vez más en los productos de todo el mundo, adherirse a un marco audaz y responsable será aún más crítico”, dice la compañía en su blog.

El lanzamiento se produce en un momento en el que el avance de la IA generativa, y su impacto en la ciberseguridad, continúa ocupando todo tipo de titulares y se ha convertido en el foco de atención tanto de organizaciones como de gobiernos de todo el mundo. Las preocupaciones sobre sus riesgos van desde posibles problemas de compartición de información confidencial con algoritmos avanzados de autoaprendizaje, hasta actores maliciosos que los utilizan para mejorar significativamente los ataques.

El Open Worldwide Application Security project (OWASP) publicó recientemente las 10 vulnerabilidades más críticas observadas en las aplicaciones de modelo de lenguaje grande (LLM, de sus siglas inglesas) en las que se basan muchas interfaces de IA generativa. El grupo destaca el impacto potencial, la facilidad de explotación y la prevalencia. Estos ejemplos incluyen inyecciones rápidas, fugas de datos, sandboxing inadecuado y ejecución de código no autorizado.

SAIF se basa en su experiencia en el desarrollo de modelos de ciberseguridad, como el marco colaborativo de niveles de cadena de suministro para artefactos de software y BeyondCorp, su arquitectura de confianza cero utilizada por muchas empresas. Se basa en seis elementos básicos:

  • Expanda bases sólidas de seguridad al ecosistema de IA, incluido el aprovechamiento de protecciones de infraestructura seguras por defecto.

 

  • Ampliar la detección y la respuesta para llevar la IA al universo de amenazas de una organización al monitorear las entradas y salidas de los sistemas de IA generativos para detectar anomalías y usar la inteligencia de amenazas para anticipar los ataques.

 

  • Automatizar las defensas para mantenerse al día con las amenazas existentes y nuevas para mejorar la escala y la velocidad de los esfuerzos de respuesta a los incidentes de seguridad.

 

  • Armonizar los controles a nivel de plataforma para garantizar una seguridad constante, lo que incluye ampliar las protecciones seguras de forma predeterminada a plataformas de IA como Vertex AI y Security AI Workbench, e incorporar controles y protecciones en el ciclo de vida del desarrollo de software.

 

  • Adaptar los controles para ajustar las mitigaciones y cree bucles de retroalimentación más rápidos para la implementación de IA a través de técnicas como el aprendizaje de refuerzo basado en incidentes y comentarios de los usuarios.

 

  • Contextualizar los riesgos del sistema de IA en los procesos comerciales circundantes, incluidas las evaluaciones de los riesgos comerciales de extremo a extremo, como el linaje de datos, la validación y el monitoreo del comportamiento operativo para ciertos tipos de aplicaciones.


TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS