Acuerdos
Seguridad
Inteligencia artificial
IA
Google
Microsoft
Amazon
Estados Unidos
Meta
IA generativa
ChatGPT

La marca de agua, el método propuesto por las 'big tech' para detectar el contenido generado por la IA

OpenAI, Google, Microsoft, Amazon y Meta se reunieron con el presidente estadounidense Joe Biden para acordar medidas que frenen el avance de los deepfakes y las fake news

ChatGPT ia generativa inteligencia artificial
Foto de Mojahid Mottakin (Unsplash).

Las siete tecnológicas que lideran el desarrollo de la inteligencia artificial (IA) generativa –Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI- se reunieron con el presidente de Estados Unidos, Joe Biden, para acordar una serie de medidas para frenar el avance de los riesgos de esta tecnología, entre las que destaca la aplicación de una marca de agua para detectar el contenido generado por la IA y evitar fraudes, deepfakes y fake news

“La Administración Biden-Harris ha conseguido compromisos voluntarios de estas empresas para ayudar a avanzar hacia un desarrollo seguro y transparente de la tecnología de IA”, anunció la Casa Blanca en un comunicado de prensa. “Las empresas que están desarrollando estas tecnologías emergentes tienen la responsabilidad de garantizar la seguridad de sus productos. Para aprovechar al máximo el potencial de la IA, la Administración Biden-Harris está animando a esta industria a mantener los más altos estándares para garantizar que la innovación no se produzca a expensas de los derechos y la seguridad de los estadounidenses”. 

Los distintos compromisos pactados, que “marcan un paso crítico hacia el desarrollo de una IA responsable", giran en torno a tres principios: seguridad, protección y confianza. En una primera categoría, las big tech acordaron asegurar sus productos de IA antes de lanzarlos al público, mediante un testeo de seguridad interno y externo llevado a cabo por expertos independientes. Además, las compañías deberán compartir información sobre la gestión de los riegos de la IA con la industria, los gobiernos, la sociedad y la academia.  

En un segundo gran acuerdo, las empresas se comprometieron a poner la seguridad primero en el desarrollo de los sistemas de IA, al invertir en ciberseguridad y facilitar que terceros reporten sobre las vulnerabilidades del sistema.  

Finalmente, el tercer punto que acordaron las tecnológicas tiene que ver con ganarse la confianza del público, mediante el desarrollo de mecanismos técnicos robustos que permitan detectar el contenido generado por la IA (como las marcas de agua) para evitar fraudes y desinformación; el reporte público de las capacidades, limitaciones y áreas apropiadas y no apropiadas de uso de sus sistemas de IA; la investigación de los riesgos sociales que supone la IA, como los sesgos y la discriminación; y el compromiso de desarrollar y desplegar sistemas de IA que ayuden a abordar los mayores retos de la sociedad, como la prevención del cáncer o la mitigación del cambio climático. 



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS