18 países acuerdan desarrollar sistemas de IA seguros por diseño
Los firmantes, entre los que se encuentran Estados Unidos y el Reino Unido, busca proteger a los usuarios de abusos y actores maliciosos.
- Proyecto Q*, la inteligencia artificial de OpenAI que pondría en jaque a la humanidad
- ¿Está preparado el CISO para el auge de la inteligencia artificial?
- Bruselas estudia ampliar el radio de acción del sistema de certificación de ciberseguridad
- Mario García (Check Point): "2023 pasará a la historia por ser el año de la inteligencia artificial generativa"
Con el objetivo de proteger a los ciudadanos de los malos usos que se le pueda dar a los sistemas de inteligencia artificial (IA), 18 países han firmado este domingo un acuerdo internacional para que el desarrollo de estos modelos sea “seguro por diseño”.
Según Reuters, en el acuerdo no vinculante, los firmantes –entre los que figuran Estados Unidos, Reino Unido, Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur- concordaron en promover que las compañías que trabajen en la creación de modelos de IA lo hagan con la seguridad en mente desde las primeras fases, para evitar su mal uso por parte de actores maliciosos.
El documento de unas 20 páginas incluye una serie de recomendaciones generales para los países, como proteger los datos contra cualquier tipo de manipulación, supervisar los sistemas para que estén libres de abuso e investigar a los proveedores de software.
La directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, Jen Easterly, manifestó que “ésta es la primera vez que hemos visto una afirmación de que estas capacidades no deben centrarse únicamente en características llamativas y en lo rápido que podemos sacarlas al mercado o cómo podemos competir para abaratar costes", sino que sostiene que "lo más importante que hay que hacer en la fase de diseño es la seguridad".