Riesgos de la IA para las organizaciones (y unos consejos para evitarlos)

Más rápido que una pandemia, la Inteligencia Artificial se ha tomado el mundo. Su presencia ahora es permanente: se encuentra en chats, páginas web, en memes, está en las redes sociales, en los celulares, vehículos, relojes, y hasta en nuestros espejos. Subrepticiamente, la IA también ha comenzado a instalarse como una herramienta más en las empresas y organizaciones, con los beneficios y riesgos que esto conlleva.

Así lo revela una reciente encuesta de Gallagher. Para finales de 2024, el 45% de las empresas utilizaron la IA en operaciones diarias, lo que representa un aumento del 32% con respecto al año anterior. En el caso de organizaciones grandes y robustas, la cifra de adopción de la IA alcanzó el 82%.

Según Gallagher, este crecimiento del uso de la IA se debe a su capacidad para automatizar algunas tareas —como escribir correos o agendar reuniones o manejar peticiones de clientes— y mejorar la toma de decisiones. Entre los líderes, el 44% reconoce que resolver problemas de mejor manera es una de las claves, y un 42% asegura que la IA potencia la eficiencia y productividad de los trabajadores, lo cual les permite enfocarse en otras tareas.

CITA: ¿En el futuro la inteligencia artificial tendrá un lugar en la junta directiva? Si tú también te haces esa pregunta, no te puedes perder Perspectives, el summit de un día presentado por Collective y Cometa, en el que analizaremos de la mano de expertos las implicaciones del uso de la IA para las organizaciones. Compra tus boletos: https://perspectives.lat/

Pero, al tiempo que su uso ha permeado todas las industrias, los riesgos de utilizar la IA han crecido también. Por ejemplo, la mayor preocupación para los empresarios, con un 34%, son los errores o resultados imprecisos; le siguen la violación de datos y privacidad; y las responsabilidades legales derivadas del uso incorrecto de esta tecnología.

Información falsa y sesgos:

También conocidas como ‘alucinaciones’, los resultados errados de la IA son ampliamente conocidos. Por ejemplo Bard, la IA de Google, aseguró que el astrofísico Grant Tremblay había dicho que Bard era ‘impresionante’, una cita inventada que el científico jamás dijo.

No es el único caso y, como explica IBM, debido a que estos softwares aprenden a través del análisis de grandes cantidades de datos, sus sistemas pueden perpetuar sesgos incluidos en la información que reciben. Esto puede afectar la precisión de sus resultados. Por ejemplo, algunos sistemas de diagnósticos de salud tienen baja exactitud en poblaciones históricamente discriminadas o en razón de género. 

El problema, sin embargo, es que los trabajadores están utilizando estos resultados sin ninguna vigilancia. “Hemos visto varios casos donde individuos a quienes se les paga por su experiencia profesional se les ha encontrado utilizando información generada con IA que era incorrecta”, sostiene Ben Waterton, Director Ejecutivo de Indemnización en Gallagher.

Si bien la IA es muy buena identificando patrones analizando cantidades inmensas de información, esta no puede reemplazar la experiencia y el juicio humano hecho por profesionales. “La calidad de los procesos de revisión de los trabajadores debe adaptarse para asegurar que los trabajadores identifiquen y resuelvan estos riesgos”, sostiene Waterton.

Ciberseguridad, privacidad y seguimiento:

Así como la IA pudo recuperar la voz de John Lennon para que pudiéramos tener un nuevo sencillo de The Beatles, los criminales pueden utilizarla para clonar voces, generar identidades falsas, hacer Deep Fakes o crear sofisticados correos para hacer phishing. 

Además, las organizaciones también pueden estar expuestas a violaciones de información protegida o filtraciones de datos confidenciales. Por ejemplo, los programas de IA pueden obtener la información de sus usuarios sin consentimiento, sean datos personales o de la organización en la que trabajan.

Debido a que aún es una tecnología reciente, solo 24% de las IAs generativas (como ChatGPT) son seguras. “Esta falta de seguridad amenaza con exponer información y a filtraciones, daños que costaron sorprendentemente 4.88 millones de dólares en 2024”, afirman en IBM. 

A esto se suma que la recopilación de información sobre el desempeño de los trabajadores puede mellar su desempeño. Según ha investigado la OCDE, los trabajadores del sector finanzas y de manufactura han sentido mayor presión debido a la información que sus empresas están recolectando sobre sus trabajos, además de creer que su privacidad ha sido afectada por estas prácticas..

Problemas legales y violación de derechos de autor:

¿Qué sucede cuando una IA comete un error, quién o qué es responsable? Las empresas deben estar alertas frente no solo a respuestas incorrectas, sino al uso ilegal que una IA pueda hacer de propiedades intelectuales

Por ejemplo, se conocen las demandas de varios artistas e ilustradores en contra de IAs como Stable Diffusion, Midjourney y DreamUp por supuestamente utilizar sus imágenes originales para alimentar y entrenar a estos softwares con sus estilos. 

Empleados en diferentes áreas de una organización pueden comenzar a utilizar libremente las IAs con este tipo de acusaciones sin una metodología clara o la guía del departamento de tecnología. “Esto es una pesadilla de responsabilidades legales que ha llevado a decenas de compañías a prohibir del todo la adopción de herramientas de IA”, sostiene el fundador de una firma de análisis tecnológico, Scott Raynovich.

Sin embargo, de acuerdo con Deloitte, aún no existen certezas legales sobre la protección de propiedad intelectual, “y es un reto determinar qué información puede ser utilizada para entrenarla sin infringir derechos de autor de otra propiedad”.

Algunas recomendaciones: 

Desde 2019, investigadores de SalesForces tienen una guía para disminuir riesgos al implementar esta tecnología en las organizaciones. Si bien hay algunas que requieren de cierto nivel técnico, dos consejos pueden ser utilizados de inmediato:

  • Mantén a un humano en la ecuación. La automatización es útil, pero implica correr el riesgo de que responda mal a un cliente. “Debe haber un humano involucrado revisando la precisión de las respuestas. eliminar sesgos y asegurarse de que los modelos operan como se espera”. 
  • Ensaya, ensaya y ensaya. La IA no puede utilizarse como algo que enciendes y te olvidas de eso, sino que necesitan supervisión constante. “Las empresas pueden comenzar por encontrar formas de automatizar el proceso de revisión o recolección de datos del sistema y desarrollar respuestas estandarizadas a ciertos riesgos”.

De acuerdo con un extenso análisis de los principales riesgos que puede traer esta tecnología, la consultora Deloitte recomienda varias acciones a tener en cuenta para evitar problemas. 

  • Los datos deberían estar limitados a personal autorizado. Determinar qué mecanismos de control e ingreso (tanto físico como digital) se utilizarán. Por ejemplo, generadores de contraseñas, sistemas de autenticación o de encriptación. 
  • Crear políticas y procesos para el uso de la IA, que puedan sostenerse en el tiempo y ser autidatos. Estas pueden incluir el uso, recopilación y mantenimiento de información personal. 
  • Planear sesiones de entrenamiento y concientización para el uso correcto, ético, seguro y legal de la IA.
  • Considerar el aporte de expertos en derecho y tecnología para diseñar los controles alrededor de la protección de datos.

***

No queremos parecer pesimistas o fatalistas. Sin duda la IA llegó para quedarse, pero su adopción debe hacerse siguiendo parámetros y lineamientos que se ajusten a las necesidades de las organizaciones y les permita evitar derrotas reputacionales al entregar información falsa o problemas legales por el uso no autorizado de obras con derechos. “La IA generativa debe verse como una manera de mejorar las capacidades humanas y empoderar a las comunidades, no para reemplazarlas o desplazarlas”, sostienen desde SalesForce.