Inteligencia artificial
IA generativa

OpenAI pagará a quien detecte fallos de seguridad en sus sistemas de IA

La compañía de IA que respalda Microsoft lanza un programa para recompensar económicamente a aquellos expertos que encuentren vulnerabilidades en sus plataformas. El montante oscilará entre 200 y 20.000 dólares, en función de la gravedad y el impacto de los fallos que se notifiquen.

OpenIA

La compañía OpenAI, respaldada por Microsoft, ha puesto en marcha un programa para recompensar económicamente a aquellos investigadores de seguridad, hackers éticos y entusiastas de la tecnología que le ayuden a identificar y solucionar vulnerabilidades en sus sistemas de inteligencia artificial. "Estamos muy satisfechos de ampliar nuestros compromisos de divulgación ofreciendo incentivos a cambio de información sobre vulnerabilidades", reza un comunicado de la compañía.

En función de la gravedad y la repercusión de la vulnerabilidad que se comunique, OpenAI asegura que ofrecerá recompensas económicas que irán desde los 200 dólares (en el caso de los descubrimientos de escasa gravedad) hasta los 20.000 dólares (en los fallos más graves). Para gestionar el proceso de envío de estas recompensas la empresa se ha asociado con Bugcrowd, una plataforma precisamente enfocada en tramitar recompensas a cambio de fallos de seguridad. 

 

En qué consiste el programa de recompensas a cambio de fallos de OpenAI

El programa incluye objetivos de API, ChatGPT, objetivos corporativos de terceros, claves de API de OpenAI y la organización de investigación de OpenAI. Los objetivos de la API incluyen la API de OpenAI y los recursos o infraestructuras de la nube pública implicados en el servicio de la API de OpenAI, como cuentas de almacenamiento en la nube (por ejemplo, blobs de datos de Azure) y servidores de computación en la nube (por ejemplo, máquinas virtuales de Azure). 

En cuanto a ChatGPT, el alcance incluye ChatGPT Plus, inicios de sesión, suscripciones, plugins creados por OpenAI (por ejemplo, navegación, intérprete de código), plugins creados por un usuario y cualquier otra funcionalidad.

Se incluye en el alcance del programa la información corporativa confidencial de OpenAI que puede estar expuesta a través de terceros como Google Workspace, Asana, Trello, Jira, Monday.com, Notion, Confluence, Evernote, Intercom, Hubspot, Zendesk, Salesforce, Stripe, Airbase, Navan, Tableau, Mode, Charthop y Looker, según informaciones de Bugcrowd. 

Los problemas relacionados con el contenido de las indicaciones y respuestas de los modelos están estrictamente fuera del ámbito de aplicación y no se recompensarán a menos que tengan un impacto adicional de seguridad directamente verificable en un servicio incluido en el ámbito de aplicación. Incluso las llamadas 'alucinaciones' de los modelos están catalogadas como fuera de alcance por OpenAI. "Los problemas de seguridad de los modelos no encajan bien en un programa de recompensas por fallos, ya que no son fallos individuales y discretos que puedan solucionarse directamente", afirma el comunicado de OpenAI. 

Algunos ejemplos de problemas que quedan fuera del ámbito de aplicación son las fugas de la cárcel o las elusiones de seguridad, conseguir que el modelo diga cosas indebidas o que el modelo cuente cómo actuar de forma negativa y conseguir que el modelo escriba código malicioso. Las alucinaciones del modelo se refieren a situaciones en las que el usuario consigue que el modelo finja hacer cosas indebidas, que el modelo finja dar respuestas a secretos o que simule ser un ordenador y ejecute código. 

Una vez descubierta una vulnerabilidad, la información relacionada con ella debe comunicarse utilizando el programa Bugcrowd de OpenAI. Los detalles de la vulnerabilidad deben mantenerse confidenciales hasta que el equipo de seguridad de OpenAI autorice su publicación. El objetivo de la compañía es proporcionar la autorización dentro de los 90 días siguientes a la recepción del informe. 

 

Problemas de seguridad recientes en ChatGPT 

El anuncio del programa de recompensas por fallos por parte de la empresa se produce pocas semanas después de que ChatGPT se enfrentara a un incidente de seguridad. El mes pasado, la empresa reveló que un fallo en la biblioteca de código abierto del cliente Redis había provocado la interrupción de ChatGPT y la fuga de datos, donde los usuarios podían ver la información personal y las consultas de chat de otros usuarios.

Según reconoció la empresa, se expusieron consultas de chat e información personal como nombres de suscriptores, direcciones de correo electrónico, direcciones de pago e información parcial de tarjetas de crédito de aproximadamente el 1,2% de los suscriptores de ChatGPT Plus. 

ChatGPT fue lanzado por OpenAI en noviembre y tuvo más de un millón de usuarios en los primeros cinco días. Sin embargo, ChatGPT se enfrenta cada vez más a la competencia. Este lunes, Alibaba Cloud anunciaba el lanzamiento de un nuevo modelo de lenguaje de gran tamaño, denominado Tongyi Qianwen, que desplegará como un front-end al estilo de ChatGPT en todas sus aplicaciones empresariales. Tongyi Qianwen admitirá entradas tanto en inglés como en chino y se lanzará en pruebas beta para clientes de China.



TE PUEDE INTERESAR...

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS