Acuerdos
Seguridad
Ciberseguridad
Inteligencia artificial
IA

18 países acuerdan desarrollar sistemas de IA seguros por diseño

Los firmantes, entre los que se encuentran Estados Unidos y el Reino Unido, busca proteger a los usuarios de abusos y actores maliciosos.

inteligencia artificial

Con el objetivo de proteger a los ciudadanos de los malos usos que se le pueda dar a los sistemas de inteligencia artificial (IA), 18 países han firmado este domingo un acuerdo internacional para que el desarrollo de estos modelos sea “seguro por diseño”.

Según Reuters, en el acuerdo no vinculante, los firmantes –entre los que figuran Estados Unidos, Reino Unido, Alemania, Italia, República Checa, Estonia, Polonia, Australia, Chile, Israel, Nigeria y Singapur- concordaron en promover que las compañías que trabajen en la creación de modelos de IA lo hagan con la seguridad en mente desde las primeras fases, para evitar su mal uso por parte de actores maliciosos. 

El documento de unas 20 páginas incluye una serie de recomendaciones generales para los países, como proteger los datos contra cualquier tipo de manipulación, supervisar los sistemas para que estén libres de abuso e investigar a los proveedores de software.

La directora de la Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos, Jen Easterly, manifestó que “ésta es la primera vez que hemos visto una afirmación de que estas capacidades no deben centrarse únicamente en características llamativas y en lo rápido que podemos sacarlas al mercado o cómo podemos competir para abaratar costes", sino que sostiene que "lo más importante que hay que hacer en la fase de diseño es la seguridad". 



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS