¿Cómo va la carrera para regular la Inteligencia Artificial en el mundo?

La guerra contra la inteligencia artificial ha comenzado. Tal vez no sea tan espectacular como nos hizo creer Terminator o Matrix, pero su importancia para los próximos años de la humanidad es igual de importante. Por ahora, el combate contra las IAs se está llevando a cabo entre pasillos, desayunos, proyectos de ley y votaciones. Aún así, parece que la humanidad está perdiendo. 

Por ahora la IA no puede defenderse autónomamente como ocurriría en las películas, sino que está siendo ayudado por su creadores humanos. Las grandes empresas de tecnología, como Google, OpenIA, Nvidia y Microsoft, están haciendo todo lo posible para que ninguna norma o ley en el mundo frene absolutamente el desarrollo de esta nueva tecnología, según explica la periodista Vivienne Walt en Fortune

Además, los políticos y los países parecen estar condenados a estar siempre detrás de los desarrollos tecnológicos. 

De acuerdo con Walt, el acertijo en que nos deja esto es: “regular muy ligeramente podría crear peligros inesperados, mientras que regular demasiado estricto podría ahogar la innovación (este es el argumento central que los inversores y ejecutivos de las tecnológicas, que promueven seguir teniendo riendas sueltas)”.

Por ahora, sin embargo, parece que seguirán un tiempo más sin una regulación competente o estricta. De hecho, para Adam Satariano y Cecilia Kang de The New York Times, los legisladores en todo el mundo “están perdiendo la batalla para regular la IA y están corriendo para ponerse al día, mientras crecen las preocupaciones de que esta poderosa tecnología automatizará muchos trabajos, y cargará con turbo la divulgación de desinformación y eventualmente desarrollará su propio tipo de inteligencia”.

Pero, ¿qué tan cierto es eso y qué medidas han comenzado a tomar los países para hacerle frente a la IA?

El Acta Inteligencia Artificial de la Unión Europea.

Este es el nombre del primer proyecto de ley aprobado que regula las tecnologías de IA en el mundo. Fue aprobada el 9 de diciembre de 2023, tras casi dos años de discusiones y jornadas de más de 17 horas de negociación en la recta final. 

Por ahora, esta Acta es la legislación más ambiciosa que tiene el mundo frente a las IAs. Su principal propósito es regular prácticas y sistemas de IA que pudieran tener consecuencias serias para el público. 

Así, por ejemplo, el acta prohíbe utilizar la IA para influenciar en el comportamiento, “como técnicas subliminales, manipuladores o engañosas que usen IA para explotar las vulnerabilidades de una persona o un grupo”, según explican en el portal Político.

Tampoco está permitido utilizar información biométrica para establecer la raza, orientación sexual, creencias o vínculos sindicales de alguien. Asimismo, la utilización de cámaras de reconocimiento facial en tiempo real no se permite. 

Sin embargo, algunas de estas prohibiciones tienen excepciones que pueden ser buenas para las personas, como utilizar la IA para investigar crímenes o buscar personas. 

Todo esto está basado en una pirámide de cuatro tipos de riesgos relacionados con la IA: Riesgo inaceptable (el tipo de usos que están prohibidos), riesgo alto (usar IA en procesos judiciales), riesgo limitado y riesgo mínimo. Esto implica, como explican en Político, que el filtro de orejas de conejo de Instagram o TikTok no necesita regulación. 

Aún así, el Acta de la UE sobre IA no ha dejado contentos a muchos. Por un lado, promotores de la IA creen que esta regulación llegó demasiado rápido y fue hecha por políticos que no pueden entender los alcances de la tecnología.

“Dado lo rápido que la IA se está desarrollando, los legisladores de la Unión Europea deberían pausar cualquier legislación hasta que entiendan mejor qué es exactamente lo que están regulando. Actuar rápido puede dar la ilusión de profeso, pero esto no garantiza éxito”, sostiene Daniel Castro, vicepresidente de la fundación Information Technology & Innovation, fundada por Microsoft, Amazon, Meta, Google y Apple. 

Estados Unidos y China.

El Acta de la Unión Europea es la regulación más conocida, pero no la única. Países hogares de gigantes tecnológicos de las IAs, como Estados Unidos y China, también han comenzado a actuar. Aunque tímidamente. 

Por un lado, el presidente Joe Biden firmó una orden ejecutiva en octubre de 2023 con la que el país tomó las primeras medidas contra la rienda suelta de las IAs. La orden le exige a los desarrolladores líderes en IA que compartan sus resultados de seguridad “otra información con el gobierno”, explican desde la agencia AP

La orden también pide que las empresas pongan una marca de agua en el contenido generado por IA, probar los posibles riesgos de sus usos e invertir en más ingenieros de IA.

Además la orden pide a cerca de 50 agencias federales e instituciones tecnológicas crear estándares para cerciorarse de que las herramientas con IA son seguras para ser usadas por el público general.

Sin embargo, para Walt de Fortune, esta orden carece de mecanismos para que la ley actúe frente a sus propósitos y no le presta atención a las preocupaciones por la violación de derechos humanos. Por ejemplo, mientras que el Acta de la UE restringe los softwares de reconocimiento facial, en EE.UU esta competencia recaerá en los estándares federales y las agencias tecnológicas que prueban estas aplicaciones. Para la ONG Don’t Spy EU, esta apuesta “no suena nada tranquilizadora”.

China, por su lado, tiene el borrador de una regulación que, destacan medios como The Washington Post, pide a las IAs generativas tener “fundamentales valores socialistas”. Además, controla estrictamente el tipo de información con la que se alimentan estos programas. Esto garantiza que los chatbots chinos “no le digan a sus usuarios que el sueño chino es migrar a Estados Unidos, como dos aplicaciones lo hicieron hace años”, según Fortune.

La regulación china también restringe el uso de programas de reconocimiento facial y estipula que los servicios de IA deben diseñarse para producir contenido “cierto y correcto”. Sin embargo, China es uno de los principales exportadores de tecnología de IA y en su plan de desarrollo de Inteligencia Artificial, del 2017, los autores sostienen que para 2030 “las teorías, tecnologías y aplicaciones chinas de la IA debería lograr liderazgo mundial”.

Estos no son los únicos esfuerzos que se han hecho. Propuestas y proyectos de ley se han presentado en Canadá, Australia, Japón, India y Reino Unido. También existen iniciativas más o menos agresivas de regulación en Italia, Brasil y Emiratos Árabes Unidos.

La guerra contra las inteligencias artificiales apenas está empezando y el camino que falta por recorrer para la regulación de estas tecnologías será demorado e incierto. Así lo aseguró para Furtune Robert Spano, abogado especializado en leyes de regulación de IA de la firma Gibson, Dunn & Crutcher. “Estamos en una etapa muy temprana de regulación de un fenómeno absolutamente nuevo. Probablemente la siguiente década será dos pasos adelante y uno atrás. Habrá muchas disputas sobre lo que realmente necesita una regulación”, sentenció.