Ciberseguridad
Inteligencia artificial
IA generativa

Siete casos de uso empresarial de IA generativa y sus riesgos asociados

Los casos de uso de IA generativa varían significativamente en una empresa, como los riesgos de seguridad que presentan.

riesgos
Créditos: Loic Leray (Unsplash).

Los casos de uso de inteligencia artificial (IA) generativa continúan creciendo a medida que la tecnología se filtra en todo tipo de productos y servicios. Al mismo tiempo, las implicaciones de seguridad de la evolución de las capacidades generativas siguen ocupando titulares. Una encuesta reciente de Salesforce reveló que, aunque la mayoría de los líderes de TI (67%) están dando prioridad a la IA generativa para su negocio en los próximos 18 meses, casi todos admiten que se necesitan medidas adicionales para abordar los problemas de seguridad.

La mayoría de las empresas comprarán (no construirán) IA generativa, y es posible que muchas ni siquiera lo hagan directamente, sino que la reciban a través de integraciones agrupadas. Esto a obliga a los CISO a invertir tiempo para comprender los diferentes casos de uso dentro de sus negocios, así como los riesgos asociados. Estos son los siete casos de negocio de IA generativa más probables, según Forrester.

Marketing. Los generadores de texto permiten a los especialistas en marketing producir instantáneamente borradores para campañas. Esto puede conllevar fuga y exfiltración de datos y amenazas de inteligencia competitiva. Los riesgos pueden incluir problemas de relaciones públicas y clientes relacionados con la publicación del texto debido a procesos de supervisión y gobernanza deficientes antes de la publicación.

Diseño. Las herramientas de generación de imágenes inspiran a los diseñadores y les permiten maquetar ideas con un tiempo y esfuerzo mínimos, dice la consultora. También se pueden integrar en flujos de trabajo más amplios. Esto puede llevar al envenenamiento de modelos, la manipulación de datos y las amenazas a la integridad de los datos. Los riesgos a considerar son las restricciones de diseño y las políticas que no siguen debido a problemas de integridad de datos y posibles problemas de derechos de autor del contenido generado.

TI. Los programadores usan modelos de lenguaje grande (LLM, de sus siglas inglesas) para encontrar errores en el código y generar documentación automáticamente. Esto introduce la exfiltración y fuga de datos y las amenazas a su integridad, mientras que la documentación producida puede correr el riesgo de revelar detalles importantes del sistema de una empresa que normalmente no divulgaría.

Desarrolladores.TuringBots ayuda a los desarrolladores a escribir código prototipo e implementar sistemas de software complejos. Esto puede acarrear problemas de seguridad de código, manipulación de datos, ransomware y robo de IP. Los riesgos potenciales son el código no seguro que no sigue las prácticas de seguridad de SDLC, el código que no cumple los requisitos de licencia de propiedad intelectual o la IA generativa que se ve comprometida con los sistemas de producción de rescate.

Científico de datos. La IA generativa permite a los científicos de datos producir y compartir información para entrenar modelos sin poner en riesgo los datos personales. Esto puede llevar a envenenamiento de datos, y amenazas adversas de aprendizaje automático. El riesgo asociado se relaciona con el modelo de generación de datos sintéticos que se somete a ingeniería inversa, “lo que permite a los adversarios identificar los datos de origen utilizados”, según la consultora.

Ventas. La generación de IA ayuda a los equipos de ventas a producir ideas, usar un lenguaje inclusivo y crear contenido nuevo. Esto introduce amenazas de manipulación de datos, exfiltración y cumplimiento normativo.

Operaciones. Las operaciones internas utilizan IA generativa para elevar la inteligencia de su organización. Esto puede llevar problemas de manipulación de datos, de su integridad y de amenazas a la experiencia de los empleados. El riesgo es que los datos utilizados para la toma de decisiones puedan ser manipulados, lo que lleva a conclusiones e implementaciones inexactas.

 

La gestión de terceros para asegurar la IA generativa

Aunque la lista de Forrester se centra en las funciones comerciales internas, también insta a los CISO a no pasar por alto el elemento de riesgo del proveedor y de terceros. “Dado que la mayoría de las empresas encontrarán IA generativa integrada en productos y servicios ya implementados, una prioridad inmediata es la gestión de riesgo de terceros. Cuando una empresa compra un producto o servicio que incluya IA generativa, depende de sus proveedores para asegurar la solución. Microsoft y Google están asumiendo esa responsabilidad al agrupar e integrar la IA generativa en servicios como Copilot y Workspace, pero otros obtendrán soluciones de su propio ecosistema de proveedores”.

 



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS