¿Recuerdas la impactante fotografía de Tom Cruise con sus dobles de riesgo que encantó a todo internet hace unos meses? El parecido entre los tres era tal que parte del juego consistía en adivinar cuál era realmente Tom Cruise. Pero había una trampa: en realidad ninguno de los tres era la estrella de Hollywood, sino que la imagen había sido generada completamente por una IA.

No es la primera vez que en el mundo se viraliza una imagen creada por IA. Incluso, no es la primera vez que Tom Cruise está en el centro de los dobles creados por computadora: la cuenta de TikTok @DeepTomCruise, con más de cinco millones de seguidores, tiene miles de videos en los que vemos al actor hace todo tipo de cosas inverosímiles y ridículas. Nuevamente, todo esto es el resultado de la sofisticación que ha alcanzado la tecnología conocida como Deepfake.


Esta herramienta permite entrenar con imágenes o sonidos a una Inteligencia Artificial para que esta pueda “clonar” digitalmente la apariencia de una persona o su voz.

Evidentemente, las posibilidades creativas que esto podría traer son inmensas. Imagina, por ejemplo, nuevas producciones audiovisuales con un clon digital de James Dean o podcasts narrados por la voz de Marilyn Monroe.

Sin embargo, la clonación digital es un reto para la ciberseguridad en el mundo: los deepfakes son una mina de oro para los estafadores y ladrones, que pueden suplantar identidades con excesiva facilidad. De hecho, los deepfakes son la mayor preocupación sobre la IA que tiene el presidente de Microsoft, Brad Smith.

De ficción a documental

Los temores de Smith están lejos de ser infundados. A mediados de septiembre y durante su presentación en el festival de tecnología CogX en Londres, el actor británico Stephen Fry presentó el fragmento de un documental narrado por él. Para sorpresa del público, las primeras palabras de Fry fueron: "No dije ni una sola de esas palabras… una máquina lo hizo".

El actor contó que ese documental clonó su voz basándose en los audiolibros de la saga de Harry Potter leídos por Fry.  “Podría haberme hecho leer lo que fuera, desde llamados para tomarse el parlamento, hasta porno duro, todo sin mi conocimiento y sin mi permiso. Y esto que acaban de escuchar fue hecho sin mi conocimiento”, apuntó.

Este suceso recuerda inevitablemente al primer episodio de la sexta temporada de la serie Black Mirror, ‘Joan is awful’. En este, una plataforma de streaming fabrica una serie de televisión y revela todas las intimidades de una persona haciendo un clon digital de esta.

Lo que no advirtió Black Mirror es que esta historia de ficción se convertiría, en cuestión de meses, en un reflejo de la realidad. Y no lo decimos solo por la anécdota de Stephen Fry.

El pasado 25 de septiembre Spotify anunció que, en colaboración con OpenIA (la empresa detrás de ChatGPT), comenzarán a clonar las voces de algunos de sus podcasters para traducir sus programas a otros idiomas.

Según el vicepresidente de personalización de Spotify, Ziad Sultan, esto hará que los oyentes se acerquen a estos programas de formas más auténticas. Sin embargo, Spotify no quiso dar más explicaciones sobre el alcance y la legalidad de estas prácticas.

Para Fry, episodios de este tipo son apenas el comienzo y será cuestión de tiempo para que los videos con deepfake sean igual de convincentes que los clones de voz. Por esto, precisamente, la clonación de imágenes de personalidades es uno de los puntos de discusión de la huelga de actores y escritores de Hollywood.

¿Y si el clon soy yo?

En el cuento ‘William Wilson’, de Edgar Allan Poe, el autor relata el descenso a la locura de una persona al encontrarse con un doble suyo a lo largo de su vida.

Aunque aún no sabemos si realmente enloqueceríamos, para conocer qué efectos tendrían los clones digitales en nuestra autopercepción, nuestras relaciones y la sociedad, investigadores de la Universidad British Columbia presentaron a 20 participantes escenarios posibles con clones digitales.

Los resultados fueron descritos en el documento “Speculating on Risks of AI Clones to Selfhood and Relationships: Doppelganger-phobia, Identity Fragmentation, and Living Memories”, en el que identificaron tres tipos de riesgos que suponen las réplicas de Inteligencia Artificial: fobia del doppelganger, fragmentación de la identidad y recuerdos vívidos.

La fobia del doppelganger, encontraron los investigadores, se refiere no solo al miedo por el clon digital en sí mismo, sino también por el mal uso potencial que puede dársele. “Los participantes se preocuparon de que sus contrapartes digitales puedan explotar y desplazar su identidad”, explican. Este, podríamos decir, es el temor que sintió Stephen Fry al escuchar su voz diciendo cosas que él nunca dijo.

El segundo fenómeno que notaron fue la amenaza de una fragmentación de la identidad. Esto sucede porque la creación de réplicas amenaza la individualidad única de la persona clonada, causando una alteración en la cohesión de su autopercepción. “En otras palabras, las personas temen que puedan perder partes de lo que los hace únicos e individuales en el proceso de replicación”.

Finalmente, los participantes expresaron preocupación por lo que los investigadores llaman “recuerdos vívidos”. Esto tiene que ver con los peligros que surgen cuando una persona interactúa con un clon de alguien con quien tienen una relación existente. “Los participantes temían que esto causara a una tergiversación de la otra persona y que pudieran desarrollar un apego excesivo hacia el clon, alterando las dinámicas de sus relaciones interpersonales”.

Pero los clones digitales no son solo un nuevo escenario al que tendremos que adaptar nuestros cerebros, sino que varias industrias tendrán que revisar cómo seguir existiendo con la realidad de la clonación digital.

Tiemblan las industrias

De acuerdo con el diario The Economist, la tecnología deepfake está causando un terremoto para las industrias de seguridad digital, la creativa y para el periodismo.

Según cuenta el diario, la clonación de voz es utilizada con fines extorsivos para engañar a personas y hacerlos creer que, por ejemplo, alguno de sus familiares está secuestrado o en peligro. La misma tecnología también está siendo usada para hacer estafas bancarias en las que, usando clones digitales de voz, delincuentes suplantan la identidad de clientes e intentan hacer transferencias de sus cuentas, como reportó el New York Times.

Por otro lado, los locutores y dobladores de voz han sido el sector más directamente afectado por la clonación de voz. De hecho, The Telegraph mostró cómo varios intérpretes de voz cedieron, sin saberlo, los derechos de su voz. Esto provocó un contraataque legal de los intérpretes que busca blindar su oficio contra la clonación.

Previendo una crisis similar, los cantantes y músicos están revisando maneras de proteger sus voces de los clones, pues las leyes de derechos de autor se enfocan en una obra específica, pero no pueden hacer nada frente a programas que sean capaces de asemejar sus voces.

Finalmente, el periodismo tendrá que cambiar, pues la posibilidad de imitar la voz de personajes reconocidos hará muy difícil demostrar la autenticidad de filtraciones reales. Para The Economist, cada vez será una defensa más común de políticos cuestionados decir que “esa no es su voz real”, sino que un audio comprometedor fue creado por IA.


Al margen de todos los riesgos que puede implicar esta nueva realidad, la clonación no es exclusivamente un riesgo para las industrias y nuestra psicología. De hecho, esta tecnología también es una oportunidad para que quienes han perdido su voz puedan volver a hablar. Así lo demostró el actor Val Kilmer, quien perdió la mayoría de su voz debido a un cáncer de garganta, pero se mostró muy agradecido de que pudieran reconstruir su voz con IA para la película Top Gun: Maverick. Algo similar le pasó al famoso crítico de cine Roger Ebert en 2010, cuya voz fue reconstruida digitalmente tras perderla por cáncer de tiroides.