Desde el principio, los deepfakes, o medios sintéticos generados por IA, se han utilizado principalmente para crear representaciones pornográficas de mujeres, que a menudo encuentran esto psicológicamente devastador. El creador original de Reddit que popularizó la tecnología cambió las caras de las celebridades femeninas en videos porno. Hasta el día de hoy, según las estimaciones de la empresa de investigación Sensity AI, entre el 90% y el 95% de todos los videos deepfake en línea son pornografía no consensual, y alrededor del 90% de esos videos incluyen mujeres.

A medida que la tecnología ha avanzado, también han surgido numerosas herramientas sin código fáciles de usar, que permiten a los usuarios “quitarse” la ropa de los cuerpos femeninos en imágenes. Desde entonces, muchos de estos servicios se han forzado a estar fuera de línea, pero el código todavía existe en los repositorios de código abierto y ha seguido resurgiendo en nuevas formas. El último sitio de este tipo recibió más de 6,7 millones de visitas en agosto, según la investigadora Genevieve Oh, que lo descubrió. Aún no se ha desconectado.

Ha habido otras aplicaciones de intercambio de caras de una sola foto, como ZAO o ReFace, que colocan a los usuarios en escenas seleccionadas de películas o videos populares. Pero como la primera aplicación pornográfica dedicada al intercambio de rostros, Y lleva esto a un nuevo nivel. Está “hecho a medida” para crear imágenes pornográficas de personas sin su consentimiento, dice Adam Dodge, fundador de EndTAB, una organización sin fines de lucro que educa a las personas sobre el abuso habilitado por la tecnología. Esto hace que sea más fácil para los creadores mejorar la tecnología para este caso de uso específico y atrae a personas que de otra manera no hubieran pensado en crear pornografía deepfake. “Cada vez que te especializas así, se crea un nuevo rincón de Internet que atraerá a nuevos usuarios”, dice Dodge.

Y es increíblemente fácil de usar. Una vez que un usuario carga una foto de una cara, el sitio abre una biblioteca de videos porno. La gran mayoría presenta mujeres, aunque un pequeño puñado también presenta hombres, principalmente en el porno gay. Luego, un usuario puede seleccionar cualquier video para generar una vista previa del resultado del cambio de rostro en segundos y pagar para descargar la versión completa.

Los resultados están lejos de ser perfectos. Muchos de los intercambios de rostros son obviamente falsos, con rostros brillantes y distorsionados a medida que giran en diferentes ángulos. Pero para un observador casual, algunos son lo suficientemente sutiles como para pasar, y la trayectoria de los deepfakes ya ha demostrado lo rápido que pueden volverse indistinguibles de la realidad. Algunos expertos argumentan que la calidad del deepfake tampoco importa realmente porque el costo psicológico para las víctimas puede ser el mismo de cualquier manera. Y muchos miembros del público desconocen que existe tal tecnología, por lo que incluso los intercambios de rostros de baja calidad pueden engañar a la gente.

Hasta el día de hoy, nunca he tenido éxito en eliminar ninguna de las imágenes. Para siempre, eso estará ahí fuera. No importa lo que yo haga.

Noelle Martin, una activista australiana

Y se presenta a sí misma como una herramienta segura y responsable para explorar las fantasías sexuales. El idioma del sitio anima a los usuarios a subir su propia cara. Pero nada les impide subir caras de otras personas, y los comentarios en foros en línea sugieren que los usuarios ya lo han estado haciendo.

Las consecuencias para las mujeres y niñas a las que se dirige esta actividad pueden ser abrumadoras. A nivel psicológico, estos videos pueden parecer tan violadores como el porno de venganza: videos íntimos reales filmados o publicados sin consentimiento. “Este tipo de abuso, donde la gente tergiversa su identidad, nombre, reputación y la alteran de formas tan violentas, lo destroza hasta la médula”, dice Noelle Martin, una activista australiana que ha sido blanco de una campaña de pornografía deepfake.

Y las repercusiones pueden quedarse con las víctimas de por vida. Las imágenes y los videos son difíciles de eliminar de Internet y se puede crear material nuevo en cualquier momento. “Afecta tus relaciones interpersonales; te afecta a la hora de conseguir trabajo. En cada entrevista de trabajo a la que vayas, esto podría surgir. Posibles relaciones románticas ”, dice Martin. “Hasta el día de hoy, nunca he tenido éxito en conseguir que se eliminen las imágenes. Para siempre, eso estará ahí fuera. No importa lo que yo haga.”

A veces es incluso más complicado que el porno de venganza. Debido a que el contenido no es real, las mujeres pueden dudar de si merecen sentirse traumatizadas y si deben denunciarlo, dice Dodge. “Si alguien está luchando con si es realmente una víctima, afecta su capacidad de recuperación”, dice.

La pornografía deepfake no consensuada también puede tener impactos económicos y profesionales. Rana Ayyub, una periodista india que se convirtió en víctima de una campaña de pornografía deepfake, recibió un acoso en línea tan intenso a raíz de ello que tuvo que minimizar su presencia en línea y, por lo tanto, el perfil público requerido para realizar su trabajo. Helen Mort, una poeta y locutora con sede en el Reino Unido que anteriormente compartió su historia con MIT Technology Review, dijo que sintió la presión de hacer lo mismo después de descubrir que le habían robado fotos de ella de cuentas privadas de redes sociales para crear desnudos falsos.

La línea de ayuda Revenge Porn, financiada por el gobierno del Reino Unido, recibió recientemente un caso de una maestra que perdió su trabajo después de que se difundieran imágenes pornográficas falsas de ella en las redes sociales y se llamaran la atención de su escuela, dice Sophie Mortimer, quien administra el servicio. “Está empeorando, no mejorando”, dice Dodge. “Más mujeres están siendo atacadas de esta manera”.

La opción de Y de crear porno gay falso, aunque limitada, representa una amenaza adicional para los hombres en países donde la homosexualidad está criminalizada, dice Ajder. Este es el caso en 71 jurisdicciones a nivel mundial, 11 de los cuales castigan el delito con la muerte.

Ajder, que ha descubierto numerosas aplicaciones de pornografía deepfake en los últimos años, dice que ha intentado ponerse en contacto con el servicio de alojamiento de Y y obligarlo a desconectarse. Pero es pesimista acerca de evitar que se creen herramientas similares. Ya ha aparecido otro sitio que parece estar intentando lo mismo. Él cree que prohibir dicho contenido en las plataformas de redes sociales, y tal vez incluso hacer que su creación o consumo sea ilegal, sería una solución más sostenible. “Eso significa que estos sitios web se tratan de la misma manera que el material de la web oscura”, dice. “Incluso si se lleva a la clandestinidad, al menos lo quita de los ojos de la gente común”.

Y no respondió a múltiples solicitudes de comentarios en el correo electrónico de prensa que figura en su sitio. La información de registro asociada con el dominio también está bloqueada por el servicio de privacidad. Retenido por privacidad. El 17 de agosto, después de que MIT Technology Review hiciera un tercer intento de comunicarse con el creador, el sitio colocó un aviso en su página de inicio diciendo que ya no está disponible para nuevos usuarios. Al 12 de septiembre, el aviso todavía estaba allí.