Seguridad
Software
Open source
IA generativa

eSentire presenta LLM Gateway para ayudar a las empresas a proteger la IA generativa

El marco de código abierto tiene como objetivo ayudar a los equipos de seguridad a mejorar su gobernanza y monitoreo de la inteligencia artificial generativa y los grandes modelos de lenguaje.

mujer trabajadora

El proveedor de detección y respuesta administradas (MDR) eSentire ha anunciado la disponibilidad de LLM Gateway, un marco de código abierto para ayudar a los equipos de seguridad a mejorar su gobernanza y monitoreo de inteligencia artificial (IA) generativa y grandes modelos del lenguaje (LLM). Originalmente desarrollado para fines internos, el prototipo de puerta de enlace ahora es de libre acceso en GitHub. Es el primer proyecto de eSentire Labs y tiene como objetivo permitir a las empresas ampliar el uso de herramientas de IA generativa de la manera más segura posible, detallaron fuentes corporativas.

El lanzamiento se produce cuando los equipos de seguridad y TI tienen cada vez más la tarea de garantizar que los datos críticos de su organización no queden expuestos mientras sus empleados utilizan LLM de IA generativa como ChatGPT. Como tal, existe una creciente necesidad de que los líderes de seguridad implementen políticas de ciberseguridad que no solo adopten y respalden la adopción empresarial de la IA generativa, sino que también aborden eficazmente los riesgos sin sofocar la innovación.

 

Las empresas se apresuran a adoptar IA generativa sin controles de seguridad internos

"Las empresas se apresuran a inyectar LLM en todo, generalmente sin ninguno o con controles de seguridad internos mínimos", revela a CSO Alexander Feick, vicepresidente de eSentire Labs. "Dado el alto valor que pueden crear los LLM, existe una demanda empresarial para avanzar incluso bajo un alto riesgo". Uno de los mejores usos de los LLM es resumir información para el usuario. Sin embargo, el uso de LLM también puede exacerbar las posibilidades de que datos confidenciales queden expuestos involuntariamente, añade. "Además, el ámbito del LLM y la superficie de amenaza aún no se conocen bien, por lo que los defensores luchan por saber para qué prepararse".

Conceptualmente, una puerta de enlace LLM es un lugar para centralizar todas las interacciones con los modelos LLM, dice Feick. Las puertas de enlace LLM siguen y habilitan los principios de seguridad por diseño al crear la capacidad de inyectar controles de seguridad apropiados en todas las funciones basadas en LLM en cada límite de confianza posible en cada interacción, independientemente de dónde se encuentre en el flujo de aplicaciones, agrega. 

Las puertas de enlace LLM ayudan a garantizar que cualquier dato que se introduzca y se genere desde la herramienta LLM esté libre de datos patentados de la empresa. "Una vez que todas sus interacciones se ejecutan a través de la puerta de enlace, se logra el monitoreo, pero también se crea un punto central para aplicar controles de seguridad. Al implementar una puerta de enlace, cada vez que los datos entran o salen de un sistema LLM, la puerta de enlace tiene la oportunidad de inspeccionar, modificar o redirigir esas interacciones", dice Feick.

 

El marco de puerta de enlace crea una capa protectora entre los datos corporativos y las herramientas LLM

Según la empresa, el marco LLM Gateway de eSentire crea una capa protectora entre los datos corporativos y las aplicaciones abiertas de IA, incluido ChatGPT. Permite a los usuarios registrar diferentes tipos de interacciones LLM que ocurren en la puerta de enlace por motivos de seguridad y proporciona recomendaciones básicas sobre cómo visualizar y rastrear el uso de LLM dentro de los complementos iniciales de eSentire. También ofrece una opción para que los profesionales de la seguridad y los equipos de TI apliquen sus propios controles, como políticas corporativas, reglas de uso, protocolos de seguridad e indicaciones. Debe considerarse un ejemplo práctico y simplificado de cómo utilizar una puerta de enlace para proteger, registrar y crear informes de gestión sobre las interacciones con ChatGPT y otros LLM o aplicaciones, como parte de un viaje hacia la construcción o compra de una solución más madura, defiende Feick.

"Sin una puerta de enlace LLM, cada aplicación que utiliza esta tecnología debe evaluarse individualmente y los datos de registro para cada una pueden ser diferentes", afirma Feick. Esto genera exponencialmente más trabajo y hace que los equipos reaccionen más lentamente ante nuevas amenazas cibernéticas. "La implementación de la puerta de enlace es principalmente un concepto de arquitectura orientada al futuro que permite a los defensores de la seguridad posicionarse para poder reaccionar rápidamente ante las amenazas de seguridad emergentes y los requisitos de cumplimiento que aún no se comprenden completamente".



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS