Inteligencias Artificiales, el nuevo enemigo de la intimidad de los usuarios de internet

Los ciberdelitos en Galicia han crecido un 80,6 por ciento con respecto al 2019

La modificación de imágenes por medio de IAs con objetivos malignos contra mayores de edad aún no está contemplada en la legislación

Inmagen editada en una herramienta de inmunización contra las inteligencias artificiales

Inmagen editada en una herramienta de inmunización contra las inteligencias artificiales / Adriana Quesada

Adriana Quesada

Laura Escanes publicaba en su cuenta de Twitter el siguiente mensaje: “Me ha llegado un link donde hay fotos mías desnuda editadas y creadas por IA. Aparte de sentirme totalmente utilizada y expuesta, hay algo que hace que me hierva la sangre. El cuerpo de una mujer no se utiliza. Ni para el placer, ni para abusar ni para manipular. Me repugna la persona que las haya creado, pero también los que están ahí y les parece divertido y callan”.

Algo similar le sucedía a la catalana Rosalía meses atrás, cuando un cantante llamado JC Reyes publicó en Twitter una imagen alterada por medio de Inteligencia Artificial donde la joven aparecía desnuda. La imagen, acompañada del texto, “lo mejor que vas a ver hoy”, desató que la artista publicara lo siguiente en la red social: “Ir a buscar clout faltando el respeto y sexualizando a alguien es un tipo de violencia y da asco pero hacerlo por 4 plays de + lo q da es pena”.

Y esto solo son dos casos de los miles que están surgiendo en los que personas cogen fotos públicas de otros para modificarlas por medio de inteligencias artificiales y crear desnudos totalmente falsos. Esta práctica no está solo dirigida a vulnerar la intimidad de los famosos, sino también a chantajear. Estos delincuentes que crean desnudos por medio de esta tecnología pueden usar las fotos para conseguir algo de su víctima con la amenaza de que puede publicarlas.

Galicia en datos

Según el Balance trimestral de criminalidad. Último trimestre de 2022, que realiza el Ministerio de Interior, los cibercrímenes han crecido un 80,6% en Galicia con respecto al 2019. Entre estos se encuentran delitos de abuso sexual, acoso sexual, coacciones e, incluso, pornografía de menores.

Desde la Plataforma Feminista Galega ponen en el punto de mira en la falta de educación, cultura y, “sobre todo, pedagogía”. Es así como aseguran que “no es justo ni seguro que cojan tu identidad para facer fotos de tu persona expuesta al público sin que tu quieras y, mucho menos, cuando es para crear fotos en situaciones comprometidas”. Y es que, desde esta plataforma, se pone en el punto de mira la situación actual que están viviendo muchas mujeres: “No solo son estos delitos, también estamos viendo que hay un gran número de violaciones en Galicia cometidas por gente joven, seguimos en una sociedad machista”.

En los comentarios del tweet de Laura Escanes donde denunciaba esta situación había una gran cantidad de personas echándole en cara que ella misma se exponía en las fotos que publica en su perfil de Instagram. Aquí es donde hay que sacar a colación el consentimiento. Según señala la Plataforma Feminista Galega, “falta mucho por hacer, tenemos una deficiencia estructural de educación extrema. No podemos cuestionar la capacidad que tiene una persona de exponerse cuando ella quiere hacerlo”.

Prevención

Con el aumento de casos en los que personas se ven afectadas por modificaciones de imágenes personales por medio de inteligencias artificiales, ya han empezado a surgir algunas formas de prevenir esta situación. Desde el MIT (Instituto de Tecnología de Massachusetts), han creado PhotoGuard.

Las inteligencias artificiales no perciben una imagen como el ojo humano, sino que se trata de datos matemáticos que describen cada píxel de la foto (color, posición... ). Es por eso que, si alteramos estos datos matemáticos por medio de modificaciones no perceptibles para el ojo humano, podemos hacer que la inteligencia artificial perciba una imagen totalmente diferente a la existente y que le sea imposible editarla al gusto de la persona que la está usando.

Esta herramienta funciona subiendo una foto y marcando el área que quieres que no pueda editarse, como es una cara. Después, al intentar modificarla por medio de un texto como “persona en prisión”, la cara está protegida y la inteligencia artificial es incapaz de usarla en el montaje, por lo que quedan imágenes poco realistas o, directamente, sin sentido.

Stopncii.org

Igualmente, también hay que tener claro qué cosas podemos hacer en caso de que nuestras imágenes hayan sido modificadas. A pesar de que lo recomendable es avisar a las autoridades ante un caso como este, hay que destacar que existen otro tipo de iniciativas para acabar con la difusión de imágenes íntimas por internet. Uno de estos proyectos totalmente gratuitos para la víctima es Stopncii.org, que significa Stop Non-Cosensual Intimate Image Abuse (Detener las Imágenes Íntimas Sin Consentimiento).

Esta iniciativa pertenece a la organización internacional Revenge Porn Helpline, que busca ayudar a que las personas no se conviertan en víctimas de este tipo de delitos. Para ello funcionan por medio de hash, es decir, códigos numéricos que representan un conjunto de datos (documentos, imágenes, vídeos...). Todas las fotos tienen un mismo hash o código, lo que ayuda a que sean fácilmente detectadas y puedan borrarse de internet. Para ello, esta página cuenta no solo con esta tecnología, sino también con el apoyo de plataformas como Instagram, TikTok, Pornhub u OnlyFans, las últimas dos redes son usadas para compartir contenidos de índole sexual.

Según la propia plataforma, “han conseguido eliminar 200.000 imágenes íntimas individuales no consensuadas de internet”. Por lo que esta plataforma realmente es una opción cuando esas imágenes íntimas o generadas por medio de IA han sido ya difundidas en la red.

Legislación

El hecho de dinfundir imágenes íntimas sin el consentimiento de quien aparece en ellas es un delito penado por la Ley Orgánica 1/1982 sobre protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen. Sin embargo, las imágenes generadas por medio de una inteligencia artificial no son reales, por lo que no están consideradas dentro de esta normativa.

Y es que hay que tener en cuenta que se diferencia entre las imágenes reales y las realistas, estando las primeras penadas. Las imágenes realistas que se califican como delito son las que se consideran “pseudopornografía infantil”, en las que se editan imágenes de menores para ponerlos en situaciones comprometidas, algo que no se tiene en cuenta cuando afecta a personas mayores de edad. Sin embargo, a pesar de todo, la Guardia Civil aconseja acudir siempre al Grupo de Delitos Telemáticos (GDT) para denunciar la situación y tomar medidas.