La técnica del 'deepfake', que se basa en la Inteligencia Artificial (IA) para manipular cuerpos y caras de un vídeo, haciendo que parezcan los de otra persona, o que coge los gestos y las palabras de un individuo y los cambia al antojo de su creador, para que por ejemplo digan una frase que en realidad nunca han dicho, está en auge, con todo lo que supone esto para la industria audiovisual. A veces incluso resulta casi imposible distinguir lo real de lo falso. De ahí el nombre de 'deepfake'. Y la actriz Emma Watson es la última víctima de estos vídeos editados.
Pero como todo aquello que tiene un gran potencial, basta que la IA caiga en las manos inapropiadas para que se desvirtúe su uso y se genere una situación grave para la inseguridad jurídica de las personas afectadas por las imágenes
Y es que, tal y como ha ocurrido en otras ocasiones, una nueva aplicación de pago basada en el 'deepfake', ha logrado manipular vídeos porno para que el usuario pueda poner en las escenas protagonizadas por una actriz la cara de quien quiera. Basta con tener un móvil y bajarse la aplicación FaceMega para hacerlo.
El gran problema es que esa herramienta se ha promocionado en diferentes redes sociales de Meta (Facebook e Instagram) con vídeos en los que las caras de las actrices Emma Watson y Scarlett Johansson aparecen en cuerpos de otras personas en escenas de vídeos sexuales, justo antes de pasar a la 'acción'.
Por ejemplo, en el de la actriz de Harry Potter se ve su cara en el cuerpo de una chica que se acerca sonriendo tímidamente a una cámara ante la que se agacha, supuestamente antes de hacer una felación.
i got this ad yesterday and wow what the hell pic.twitter.com/smGiR3MfMb
— lauren (@laurenbarton03) March 6, 2023
"Reemplaza la cara con cualquiera", decía uno de los eslóganes del anuncio de la app. La creadora de la misma, Ufoto Limited, propiedad de una empresa matriz china, Wondershare, lanzó hasta 230 similares, la mayoría con las dos populares actrices como reclamo.
Por fortuna, la app ya no está en la Apple Store ni en Google Play y Meta puso coto enseguida a esos vídeos de promoción, que sin embargo muchos usuarios llegaron a ver.
De hecho, el 'deepfake' de Emma Watson se volvió viral después de que una periodista llamada Lauren Barton informase de que había visto los anuncios a través de su cuenta de Twitter. "Qué demonios...", tuiteó, junto con el vídeo.
“Nuestras políticas prohíben el contenido para adultos, independientemente de si es generado por IA o no, y hemos restringido esta página de publicidad en nuestra plataforma”, expresó un portavoz de Meta en un comunicado tras lo ocurrido.
En esa línea, Twitch, que empezaba a tener un serio problema con este tipo de contenido, anunció hace unos días una actualización de sus políticas para luchar contra la pornografía 'deepfake' imponiendo sanciones como la suspensión indefinida de la cuenta a los usuarios que "promuevan, creen o compartan" contenido relacionado con este tipo de imágenes.
Y es que, el lastre de esta tecnología, como muchas otras, es que al principio estaba al alcanza de unos pocos y ahora la pueden 'manejar' muchas personas gracias a los teléfonos móviles.
Este es el ejemplo de como la IA puede hacer mucho daño, aunque también están los casos contrarios.
Hace unos meses por ejemplo, el actor Bruce Willis vendió los derechos de su imagen para ser utilizada en futuros proyectos mediante IA. Y no fue el único.
Aquí en España tenemos el ejemplo de la fallecida Lola Flores, cuya imagen fue cedida por sus familiares para protagonizar un anuncio de Cruzcampo en el que parecía que estaba de cuerpo presente, a la vez que hablaba como si hubiese 'resucitado'.