Legislación
Inteligencia artificial
IA
IA generativa

2024, el año en el que Europa aprobará la primera regulación global de la IA

El año que ahora comienza destacará, seguro, por la proliferación de proyectos relacionados con la IA y, en particular, con su versión generativa. También será cuando entre en vigor en Europa la primera regulación exhaustiva de una tecnología que trae consigo tantas oportunidades como riesgos.

Unión Europea
Créditos: Guillaume Perigois (Unsplash).

Después de un 2023 en el que la IA, y en particular su ‘sabor’ generativo, ha dominado el relato tecnológico global al democratizarse este tipo de herramientas tras la entrada en escena de ChatGPT, seguido de otras plataformas similares por parte de los gigantes de TI, todo apunta a que este 2024 será un año en el que proliferarán los proyectos asociados a la denominada ‘GenAI’. Este será también el año en el que entrará en vigor, por fin, la primera regulación completa de una tecnología que trae consigo tantas oportunidades como riesgos. Si todo ocurre como está previsto, en los próximos meses la Unión Europea dará el visto bueno al texto de la IA Act que acordaron, de forma provisional, los Estados miembros de la UE, bajo la presidencia española del Consejo, y los negociadores del Parlamento Europeo el pasado 9 de diciembre

Será previsiblemente el próximo mes de marzo cuando el Consejo refrende la nueva normativa, que tendrá que aprobar el Parlamento Europeo en abril y que, tras su publicación en el Diario Oficial de la Unión Europea (el boletín oficial de los actos jurídicos de la UE, homólogo al BOE español), entrará en vigor 24 meses después, ya en 2026.  

No obstante, según fuentes del equipo negociador del acuerdo provisional de la futura ley pertenecientes a la española Secretaría de Estado de Digitalización e Inteligencia Artificial (adscrita ahora al nuevo Ministerio de Transformación Digital y que ha quedado descabezada tras la marcha de Carme Artigas), será mucho antes cuando empezaremos a ver los efectos de la IA Act. “Los usos prohibidos de la inteligencia artificial ya estarán en vigor unos seis meses después de la publicación de la nueva ley en el Diario Oficial de la Unión Europea”, apuntan dichas fuentes. Entre estos usos prohibidos destacan la manipulación del comportamiento de forma cognitiva, la extracción no selectiva de imágenes faciales de Internet o de grabaciones de CCTV, el reconocimiento de emociones en el lugar de trabajo y en las instituciones educativas, la puntuación social, la categorización biométrica para inferir datos sensibles (como la orientación sexual o las creencias religiosas) y algunos casos de vigilancia policial predictiva de personas. 

La normativa es importante, señalan las mismas fuentes, porque “por primera vez un conjunto de países define para qué no debe servir la IA, como es para clasificar a las personas con un ranking social, como se hace en China, o para que la nuestra sea una sociedad vigilada, al prohibir el reconocimiento biométrico en espacios públicos, excepto para determinadas circunstancias como ataques o desastres naturales o la búsqueda de un criminal”. 

 

“Los usos prohibidos de la IA estarán en vigor unos seis meses después de la publicación de la nueva ley en el Diario Oficial de la Unión Europea”

 

Críticas a la futura IA Act 

A pesar de desconocer el texto definitivo de la nueva regulación, ésta ha levantado diversas críticas en el sector tecnológico europeo. Desde la asociación DigitalEurope, Cecilia Bonefeld-Dahl, directora general de la entidad, aseveraba en un comunicado el pasado diciembre: "Tenemos un acuerdo, pero ¿a qué precio? Apoyábamos plenamente un planteamiento basado en el riesgo y en los usos de la IA, no en la tecnología en sí, pero el intento de última hora de regular los modelos fundacionales ha dado un vuelco a este planteamiento. Los nuevos requisitos —que se suman a otras nuevas leyes de gran alcance como la Ley de Datos— exigirán muchos recursos a las empresas para cumplirlos, recursos que se gastarán en abogados en lugar de contratar ingenieros de IA. Nos preocupan especialmente las numerosas pymes de software que no están acostumbradas a la legislación sobre productos: será un territorio desconocido para ellas”. 

Sin embargo, las fuentes de la Secretaría de Estado de Digitalización que participaron en el proceso negociador de la ley provisional aseguran estar satisfechas con el texto acordado, que aún no se ha hecho público y cuyo articulado final incluyendo los considerandos estará listo a mediados de febrero. “Es cierto que el equilibrio entre libertad y protección es muy fino, pero estamos satisfechos con el resultado”. Tampoco creen que esta normativa mate la innovación en IA en Europa, como llegó a señalar el propio presidente de Francia Emmanuel Macron: “Todo lo contrario, aportará seguridad y confianza al mercado y permitirá que este negocio basado en IA se desarrolle antes”, apuntan las mismas fuentes. 

Aseguran, además, que, aunque la futura normativa prevé multas para aquellas empresas que la incumplan —sanciones que ascienden a 35 millones de euros o el 7% por infracciones de las aplicaciones de IA prohibidas, 15 millones de euros o el 3% por infracciones de las obligaciones de la ley de IA y 7,5 millones de euros o el 1,5% por el suministro de información incorrecta— las pymes se regirán por unos límites “más proporcionados”. Con la normativa, subrayan, "cuidamos al mercado de las pymes”, al igual, añaden, que no se aplicará a los sistemas de IA utilizados con el único fin de la investigación y la innovación. “Estamos creando sandbox regulatorios y espacios de testeo de estas aplicaciones de IA en el mundo real para que se pueda desarrollar esta tecnología en Europa”. 

 

Una 'regulación paradigma' que sigue la estela de GDPR 

En la Secretaría de Estado creen que las bases de la futura IA Act “se extenderán en todo el mundo, como pasó con GDPR (el Reglamento Europeo de Protección de Datos) pero con menos dolor” y recuerdan que Canadá ya ha señalado que usará esta legislación como un referente para su propia regulación de la IA. “El europeo será un modelo de referencia que seguramente no sólo se seguirá en Canadá sino también en Latinoamérica. Damos una seguridad jurídica al desarrollo y uso de la IA que no se aporta en ninguna parte del mundo”. 

Las empresas, por otra parte, no tienen que esperar a que se apruebe la regulación europea para comenzar a adaptar su oferta. “Ya pueden ir aplicando lo que esta regulación propone por motivos de reputación”. Es, dicen las citadas fuentes, “el efecto Bruselas” por el que “la UE regula pero, al mismo tiempo, está definiendo un estándar”. Recuerdan que pedir transparencia a un modelo fundacional “es lo mínimo" y que hasta ahora se ha tratado al software de forma diferente a otros productos de otros sectores como el mundo de la medicina, la automoción, etc. “No puede exigirse una determinada seguridad y calidad a un producto manejado por personas y no hacer lo mismo a uno manejado por un algoritmo”, afirman, poniendo como ejemplo el famoso ChatGPT, que OpenAI lanzó al mercado cuando aún estaba en fase beta. 

En la aplicación de la nueva normativa tendrá un papel relevante la futura AI Office, una oficina de coordinación de las agencias nacionales de supervisión de la IA —la primera de estas agencias en ver la luz ha sido la española— que tienen como misión guiar los parámetros de medición, detectar alertas en tiempo real sobre las aplicaciones de alto riesgo y tener respuestas regulatorias de los modelos fundacionales, en combinación con un código de buenas prácticas. Un modelo que permite la adopción de la normativa de IA a medida que esta tecnología vaya avanzando. “Por este motivo, la crítica de que estamos regulando algo que se va a quedar obsoleto no se sustenta”, añaden las fuentes de la Secretaría de Estado.  

  

Cuatro años de trabajo y un giro de guion 

La Comisión europea propuso inicialmente la IA Act en 2021; se trata de una normativa en la que se lleva trabajando desde hace cuatro años en Bruselas, pero que ha tenido que modificarse con "el giro de guion" que ha supuesto para la democratización de esta tecnología la irrupción de los grandes modelos de lenguaje y el auge de la llamada IA generativa, cuyo máximo exponente es ChatGPT, la primera plataforma lanzada al mercado de estas características.

El futuro reglamento, como apuntan desde Bruselas, no se aplicará a ámbitos ajenos a la legislación de la UE y “en ningún caso afectará a las competencias de los Estados miembros en materia de seguridad nacional ni a ninguna entidad que tenga encomendadas tareas en este ámbito”. Tampoco se aplicará a los sistemas que se utilicen exclusivamente con fines militares o de defensa, ni, como se comentaba antes, a los sistemas de IA utilizados sólo con el fin de la investigación, ni a las personas que utilicen la IA por motivos no profesionales. 

Otros países han realizado alguna iniciativa para regular esta tecnología pero mucho menos ambiciosaEs el caso de Estados Unidos, cuyo Gobierno emitió un decreto para obligar a los desarrolladores de sistemas de IA a compartir los datos de las pruebas internas con el Gobierno, para prevenir que estos avances supongan un “riesgo grave para la seguridad nacional, económica o para la salud y seguridad públicas”. También, el pasado mes de noviembre en Reino Unido se celebró una cumbre sobre IA impulsada por el Gobierno Británico en la que 28 potencias y la UE refrendaron una declaración (llamada de Bletchley Park) por la que se comprometían a trabajar juntos para afrontar los desafíos que emerjan del uso de la IA. 

 
 


TE PUEDE INTERESAR...

Webinars

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper