Legislación
Seguridad
Tendencias
Inteligencia artificial
Empresa

Cuatro áreas críticas donde poner el foco en materia de regulación de la IA

Los responsables legales y de cumplimiento deben preparar a sus organizaciones para la regulación emergente sobre inteligencia artificial. Estas son las áreas críticas a tener en cuenta según Gartner.

robot inteligencia artificial ia
Foto de Tara Winstead (Pexels).

Partiendo del contexto de que legisladores y autoridades de todo el mundo están proponiendo regulaciones y orientación sobre herramientas basadas en grandes modelos del lenguaje (LLM, por sus siglas en inglés), véase ChatGPT o Google Bard, Gartner ha identificado cuatro áreas críticas que deben abordar el consejo general (GC, por sus siglas en inglés) y los líderes legales. “Los líderes legales pueden examinar dónde se superponen las diversas propuestas para ayudar a los responsables sénior y a la junta a prepararse para los cambios regulatorios a medida que desarrollan su estrategia corporativa de inteligencia artificial (IA)”. Así lo defiende Laura Cohn, directora sénior de investigación de Gartner. “Si bien es posible que las leyes en muchas jurisdicciones no entren en vigencia hasta 2025, los líderes legales pueden comenzar mientras esperan que la regulación final se materialice”.

En este sentido, la consultora tecnológica Gartner ha identificado cuatro acciones para que los líderes legales creen una supervisión de IA que permitirá a sus organizaciones avanzar mientras esperan la orientación final. He aquí las claves.

 

Incorporar la transparencia en el uso de la IA 

“La transparencia sobre el uso de la IA está emergiendo como un principio fundamental de la legislación propuesta en todo el mundo”, dijo Cohn. “Los líderes legales deben pensar en cómo sus organizaciones dejarán en claro a los humanos cuando interactúen con la IA”. Por ejemplo, con el uso de IA en el contenido de marketing y el proceso de contratación, los líderes legales pueden ayudar actualizando los avisos de privacidad y los términos y condiciones en los sitios web de su empresa para reflejar el uso de IA. 

Sin embargo, es mejor desarrollar una sección separada en el centro de confianza online de la organización. O la organización podría publicar también un aviso de un momento dado al recopilar datos que analice específicamente las formas en que la organización usa la IA. Los líderes legales también podrían considerar actualizar el código de conducta de su proveedor con un mandato de notificación si un proveedor planea usar IA.

 

Gestión de riesgos continua

"Los líderes legales y de GC deben participar en un esfuerzo multifuncional para implementar controles de gestión de riesgos que abarquen el ciclo de vida de cualquier herramienta de IA de alto riesgo", incide Cohn. “Un enfoque para esto puede ser una evaluación de impacto algorítmica (AIA) que documente la toma de decisiones, demuestre la debida diligencia y reduzca el riesgo regulatorio presente y futuro y otras responsabilidades”.

Además de lo legal, el GC debe involucrar la seguridad de la información, la gestión de datos, la ciencia de datos, la privacidad, el cumplimiento y las unidades comerciales relevantes para obtener una imagen más completa del riesgo. Dado que los líderes legales generalmente no son dueños del proceso comercial para el que incorporan los controles, es vital consultar a las unidades comerciales relevantes.

 

Gobernanza: supervisión humana y rendición de cuentas

"Un riesgo que es muy claro en el uso de herramientas LLM es que pueden equivocarse mucho mientras suenan superficialmente plausibles", detalló la portavoz de la firma de análisis e investigación. “Es por eso que los reguladores exigen supervisión humana que debería proporcionar controles internos sobre el resultado de las herramientas de IA”.

Las empresas pueden querer designar una persona de contacto de IA para ayudar a los equipos técnicos a diseñar e implementar controles humanos. Según el departamento que aloje la iniciativa de IA, esta persona podría ser un miembro del equipo con un profundo conocimiento funcional, un miembro del personal del equipo de seguridad o privacidad o, si hay integraciones con la búsqueda empresarial, el líder del lugar de trabajo digital. El GC también podría establecer una junta asesora de ética digital de expertos legales, de operaciones, de TI, de marketing y externos para ayudar a los equipos de proyecto a gestionar los problemas éticos y posteriormente asegurarse de que la junta directiva esté al tanto de cualquier hallazgo al respecto.

 

Protección contra los riesgos de privacidad de datos

Está claro que los reguladores quieren proteger la privacidad de los datos de las personas cuando se trata del uso de IA. En este sentido, insiste Cohn, “será clave para los líderes legales mantenerse al tanto de cualquier práctica recientemente prohibida, como el monitoreo biométrico en espacios públicos”. Los líderes legales y de cumplimiento deben gestionar el riesgo de privacidad aplicando principios de privacidad por diseño a las iniciativas de IA. Por ejemplo, deberían solicitar evaluaciones de impacto de privacidad al principio del proyecto o asignar miembros del equipo de privacidad al inicio para evaluar los riesgos de privacidad.

Con las versiones públicas de las herramientas LLM, las organizaciones deben alertar a la fuerza laboral de que cualquier información que ingresen puede convertirse en parte del conjunto de datos de capacitación. Eso significa que la información confidencial o de propiedad exclusiva que se utiliza en las indicaciones podría llegar a las respuestas de los usuarios fuera de la empresa. Por lo tanto, es fundamental establecer pautas, informar al personal sobre los riesgos involucrados y proporcionar instrucciones sobre cómo implementar dichas herramientas de manera segura.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS