‘Deepfakes’ porno: violencia sexual virtual contra la mujer
La inteligencia artificial generativa hace que podamos crear vídeos o imagenes desde cero con tan solo unos pasos y gratis
Algunos utilizan estas herramientas para crear pornografía con la cara de personas reales, algo que no solo es ilegal, sino que perpetúa la cosificación de la mujer, afectada desproporcionadamente en estos casos

Imágenes de mujeres creadas con inteligencia artificial en anuncios de aplicaciones diseñadas para crear 'deepfakes' pornográficos / David López Frías

La inteligencia artificial (IA) ha cambiado nuestra sociedad. Hace un lustro no nos imaginábamos que tendríamos chatbots que nos hablasen casi como humanos, nos resolviesen problemas, escribiesen textos o crearan imágenes y vídeos desde cero. Y la velocidad a la que avanzan y mejoran sus capacidades es vertiginosa, con actualizaciones que los hacen más precisos y difíciles de distinguir de una persona.
Una de sus características más usadas es la IA generativa, que crea imágenes y vídeos desde cero basados en lo que nosotros le dictemos, o con otra fotografía como base. Este tipo de IA presenta una serie de problemas, especialmente por su capacidad para crear imágenes falsas o fotos y vídeos con la cara de una persona real, los denominados deepfakes. Así los define el abogado Miguel Vieito Villar: “son vídeos manipulados con IA, que viene de la unión de las palabras inglesas deep learning (aprendizaje profundo, es decir, IA) y fake (falso). En el futuro, será denominada ‘ultrafalsificación’ en castellano”.
Aunque no hay un momento concreto en el que los deepfakes se convirtieron en preocupantes, Vieito asegura que el principal problema aparece no cuando empezaron a crearse –era habitual ver caras deformadas o manos con dedos de más–, sino lo que avanza la tecnología hasta el punto de que sea realmente complicado distinguirlos de vídeos reales.

Miguel Vieito Villar, abogado / Cedida
“El Instituto Nacional de Ciberseguridad (INCIBE) ya hablaba de los deepfakes en 2020 y daba trucos para identificarlos; hoy ya no funcionan. Se ha solucionado la sincronización de audio y vídeo, las distorsiones... ahora la clave para resolverlos no está en dudar del audio o la imagen, sino de lo que se transmite. Por ejemplo, si vemos a Obama hablando de la Diputación de Lugo, nos damos cuenta de que es falso por la información que transmite, no la imagen o la voz”, comenta.
Tipos y usos
El principal uso de los deepfakes, explica el abogado, es para el fraude, creando imágenes y vídeos con la cara de una persona real o con su voz (voicefakes), con los que se realizan llamadas spam. “El software para crearlos es cada vez más accesible y numeroso”, explica.
En 2024 existían más de 10.000 herramientas para generar imágenes con inteligencia artificial
Y es que, según el informe The State of Deepfakes 2024 de Sensity, una empresa de software de identificación de deepfakes, en ese año existían más de 10.000 aplicaciones de generación de imágenes IA, casi 2.300 para cambiar las caras de una persona por otra, clonarlas o sincronizar sus labios con audio, y más de 1.000 para generación o clonación de voz.
Las mujeres, víctimas
Uno de los usos más preocupantes de esta tecnología es para generar imágenes o vídeos pornográficos con la cara de una persona real. Según el informe State of Deepfakes 2023 de Security Hero, un portal de protección ante el robo de identidad, un 98 % de los deepfakes existentes en la web son de carácter sexual, y el 99 % de víctimas son mujeres (94 % trabajadoras de la industria del entretenimiento). Security Hero también dice que lleva menos de 25 minutos hacer un vídeo deepfake porno de 60 segundos gratis con solo una imagen nítida de una cara.

Porcentaje de víctimas hombres (M) y mujeres (F) afectadas por la pornografía 'deepfake' y los 'deepfakes' normales / Security Hero
Pero ¿por qué las mujeres son víctimas tan desproporcionadamente? “La inmensa mayoría de víctimas de violencia sexual en general son mujeres, y en entornos digitales también. El motivo, para mí –explica Vieito–, es una sociedad con principios heteropatriarcales en la que sigue costando ver a la mujer como una persona, existiendo como objeto sometido al disfrute de los hombres y a desconsiderando sus derechos. En los deepfakes no hay una lógica diferente, la tecnología aquí es una excusa y un facilitador de conducta”.
Security Hero, en el informe mencionado previamente, encuestó a usuarios de pornografía deepfake, y el 74 % de ellos no sentían culpa por hacerlo, escudándose en que “saben que no es la persona real”, “no hacen daño a nadie mientras sea para uso personal”, “es una versión más realista de la imaginación” y “no es muy distinto del porno ‘normal’”.
"Muchas veces (las empresas de IA) juegan un poco a dejar hacer para tener un mayor volumen de usuarios”
El abogado cree que es responsabilidad de las empresas de IA permitir que sus aplicaciones se nutran de estos contenidos, aunque cree que muchas veces “juegan un poco a dejar hacer para tener un mayor volumen de usuarios”: “Deberíamos pedir responsabilidades; desde luego a quiénes utilizan esta tecnología, pero también a la plataforma que permite que ese vídeo se genere. Esto no va solo de utilizar fotos de famosos para hacer un vídeo falso”.
Consecuencias legales
Aunque los deepfakes todavía no suponen una amenaza lo suficientemente grande como para que ya existan leyes específicas, Vieito asegura que ya son ilegales por defecto, ya que vulneran varias leyes existentes: “Tenemos leyes que regulan el derecho a la propia imagen, al honor, la protección de datos personales, atentar contra la dignidad de otra persona... son conductas que, aunque con otros nombres, ya está castigando el Código Penal”.
La creación de deepfakes puede ser perseguida por vía civil (uso no autorizado de imágenes), administrativa (protección de datos personales) y penal. En este último se está planteando un Proyecto de Ley Orgánica en el Congreso para la protección de personas menores de edad en entornos digitales, explica el abogado: “Va a incluir en el Código Penal un artículo nuevo, el 173 bis, que nos dice que la pena de prisión será de uno o dos años a quién, sin la autorización de la persona afectada, afecte a su integridad moral, difunda, exhiba u ofrezca imágenes corporales o audio de su voz modificada o creada con IA”.
“Tenemos leyes que regulan el derecho a la propia imagen, al honor, la protección de datos personales, atentar contra la dignidad de otra persona... son conductas que, aunque con otros nombres, ya está castigando el Código Penal”
Aun así, es habitual ver en algunas apps o páginas web anuncios como los que vemos en la imagen principal que publicitan aplicaciones creadas específicamente para generar deepfakes porno: “A mi modo de ver, esto no es legal, por los motivos que analizamos. ¿Por qué sucede? En ocasiones tenemos páginas que no están alojadas en la Unión Europea, y allí es más difícil o imposible aplicar la ley; en otras, estas webs no suelen durar mucho, porque al final alguien actúa, pero puede pasar desapercibida un tiempo”, señala Vieito. Una forma de actuar es a través del Canal Prioritario de la Agencia Española de Protección de Datos (AEPD), que funciona de forma rápida y eficaz contra la difusión ilegítima de imágenes sexuales, o en el teléfono 017 del INCIBE, que proporciona asesoramiento gratuito sobre violencia digital.
Sin embargo, para la víctima el problema, además del daño a su persona, radica en las dificultades de encontrar quién ha generado ese deepfake: “Puede ser difícil, especialmente si ha sido desde el extranjero o utilizando una VPN. Pero que no crean los agresores que se pueden salir con la suya. La policía no es tonta y es capaz de determinar el origen de estas vulneraciones”, afirma el abogado. Para aumentar las posibilidades de encontrar al culpable, recomienda conseguir pruebas como pantallazos o el vídeo en cuestión, acudir a la AEPD antes que a las fuerzas de seguridad y, una vez asesorados, hablar con estas últimas, que cuentan con brigadas de delitos tecnológicos.
Vieito cree que para actuar contra estas conductas lo mejor es “deshacernos de la idea de que el Código Penal lo soluciona todo”: “Para ayudar a cesar el contenido sexual, quizá necesitamos reforzar la educación sexual en primaria y secundaria, o abordar a quiénes que producen estos contenidos”. El abogado tampoco está a favor de un endurecimiento de las penas, ya que “tiene un recorrido muy corto y no elimina la conducta en sí”: “A mí no me interesa tanto castigar a quién haga un deepfake sexual, que también, como saber porque lo ha hecho y que hacemos para que no lo vuelva a hacer. No me interesa la óptica represiva, me interesa la reeducativa”.
- La futura apertura de un Starbucks en el local del emblemático Alameda enciende las redes
- Muere el empresario Emilio Bouzas Cajuso, muy conocido en el Ensanche de Santiago
- Crónica social compostelana | El Secreto de San Lázaro: desayunos, vinos y cócteles con alma compostelana
- Premios Gallegos del Año 2025
- Narcopiso de Fontiñas: cómo el trapicheo esquiva la seguridad privada de los vecinos
- El Obradoiro arrasa con una victoria de equipo grande
- Llega a Santiago el equipo multidisciplinar que instalará el ciclotrón en el Centro de Protonterapia de Galicia
- Un fin de semana cargado de eventos dispara la ocupación hotelera en Santiago