Ciberseguridad
Inteligencia artificial

Los riesgos asociados al mal uso de la inteligencia artificial

A pesar de quedar demostrado el valor de esta tecnología para las empresas, hay una serie de riesgos asociados a su uso que a primera vista podrían parecer irrelevantes, según la consultora Mckinsey.

inteligencia artificial

 

La inteligencia artificial se ha destapado como una de las tecnologías más punteras de la transformación digital. Lo mismo sucede en el ámbito de la ciberseguridad, donde puede automatizar patrones de comportamiento y ser de gran ayuda a la hora de detectar y mitigar todo tipo de ataques. Pero, mal utilizada, también conlleva una serie de riesgos importantes, tal y como pone de manifiesto el informe de la consultora Mckinsey Afrontando los riesgos de la inteligencia artificial. Y es que, asegura, la firma de análisis, para demostrar la relevancia que la inteligencia artificial está adquiriendo, para el año 2030, podría generar 13.000 millones de dólares anuales en la economía mundial. Y, el 80% de los ejecutivos que han implementado recientemente procesos de esta tecnología en sus compañías creen que consiguen sacar valor.

Pero, continúa, hay una serie de riesgos asociados a su uso que “a simple vista pueden parecer irrelevantes pero que pueden acabar incidiendo en el buen funcionamiento de la empresa”. Estos riesgos pueden estar relacionados con la privacidad, discriminación, accidentes  o manipulación de los sistemas políticos.

Más concretamente, un ejemplo que pone de relieve el estudio es el de los problemas en el uso de datos. Cada vez hay más información no estructurada y obtenida a partir de diferentes fuentes como webs, redes sociales, dispositivos móviles e Internet de las Cosas (IoT). “Como resultado, es fácil caer en el uso involuntario o en la revelación de información oculta entre datos anónimos”.

Por otra parte, puede haber problemas de seguridad derivados de la utilización de datos aparentemente inofensivos que las empresas recopilan. O diversos problemas en los procesos operativos que pueden afectar negativamente al rendimiento de los sistemas. También pueden surgir errores en el establecimiento de modelos de inteligencia artificial que pueden generar resultados sesgados que representen mal a las poblaciones analizadas. Por último, McKinsey habla también de los problemas de interacción entre personas y máquinas que pueden generar varios desafíos en los sistemas automatizados de transporte, producción e infraestructura, en los que pueden darse accidentes.

 

Cómo usar adecuadamente la inteligencia artificial

La consultora también ha querido dar tres claves principales para mejorar el uso de la inteligencia artificial. En primer lugar, identificar los riesgos más críticos de cada compañía. A éste, le sigue instaurar controles generales estrictos para guiar el desarrollo y uso de los sistemas de inteligencia artificial, asegurar una supervisión adecuada y poner en práctica procedimientos y planes de contingencia sólidos. En tercer lugar, es importante, para Mckinsey, reforzar los controles específicos dependiendo de la naturaleza del riesgo. A menudo es necesario más rigor, y los controles requeridos dependerán de factores tales como la complejidad de los algoritmos, la naturaleza de la interacción persona-máquina y hasta qué punto la inteligencia artificial está incorporada a los procesos de negocio. También son necesarios controles específicos de datos y análisis.



TE PUEDE INTERESAR...

Contenido Patrocinado

Accede a la cobertura de nuestros encuentros
 
Lee aquí nuestra revista digital de canal

DealerWorld Digital

 

Forma parte de nuestra comunidad
 
¿Interesado en nuestros foros? 

 

Whitepaper

Documento Pure Storage y Kyndryl INFRAESTRUCTURAS