Saltar al contenido principalSaltar al pie de página

«Los controles de acceso a las redes sociales pueden empujar a los menores a espacios más inseguros»

Troncoso se suma a especialistas en privacidad y seguridad de 30 países, que piden una moratoria y advierten de que la protección a menores online es una solución mediocre de consecuencias imprevistas.

Carmela Troncoso, en un congreso reciente sobre privacidad en la red.

Carmela Troncoso, en un congreso reciente sobre privacidad en la red. / FdV

Elena Ocampo

Vigo

La ingeniera gallega Carmela Troncoso (Vigo, 1982), directora científica en el Instituto Max Planck para Seguridad y Privacidad y profesora en Lausana, es una de las personas que firma una carta pública, junto a más de 350 científicos, para señalar que comprobar la edad online ni es tan fácil ni tan inocuo.«Antes de desplegar una tecnología que va a cambiar internet, hay que demostrar que funciona y que sus beneficios superan claramente a sus daños». Estas reticencias llegan después de que el Gobierno anunciara que va a prohibir el acceso a menores de 16 años a las redes sociales.

¿Qué les llevó a impulsar esta carta pública precisamente ahora? ¿Qué ha acelerado la urgencia: nuevas leyes, nuevas tecnologías o ambas?

—Llevamos bastante tiempo preocupados. La idea de la verificación de edad lleva desde el año pasado rondando en la Unión Europea, también en relación con cómo podría desplegarse y con la cartera digital europea. Pero esas discusiones se han acelerado y ahora la posibilidad de que se convierta en realidad es mucho más cercana. Por eso nos parecía importante llevar los aspectos tecnológicos al debate público, para que la discusión sea completa y no se haga sobre hipótesis.

En una frase, ¿cuál es el mayor error de enfoque cuando se intenta trasladar el control de edad del mundo físico al digital?

—Hay dos errores fundamentales. El primero es pensar que un control en el mundo digital puede ser tan eficaz como en el mundo real. En un casino físico, por ejemplo, la probabilidad de que entre un menor es muy baja, y también lo es la de que vaya a otro casino en otra ciudad y no se encuentre con otro control. En internet, esa lógica cambia por completo. El segundo error es creer que va a funcionar sin tener en cuenta los daños asociados a colocar ese «portero» en toda la red o en muchos servicios.

Troncoso, ingeniera viguesa experta en seguridad y privacidad en internet.

Troncoso, ingeniera viguesa experta en seguridad y privacidad en internet. / Fdv

¿Qué le preocupa más: que la verificación no funcione o que funcione demasiado y normalice un internet de identificación permanente?

—Me preocupan las dos cosas. Si no funciona, habremos desplegado una infraestructura intrusiva sin resolver el problema. Y si funciona a costa de pedir identificación constante, el precio puede ser altísimo. En el mundo físico, si una persona adulta entra en un casino, no hay una actuación posterior ni una lista de si ha ido o no. En cambio, en el entorno digital podemos acabar en un sistema donde para acceder a determinados servicios haya que mostrar un documento, dejar rastro o incluso someterse a mecanismos como un escaneo facial para decidir si eres mayor de edad. Ya hemos visto incluso propuestas para inferir la edad a partir del comportamiento digital: OpenAI, por ejemplo, habló de desarrollar sistemas capaces de estimarla basándose en las conversaciones mantenidas con ChatGPT. Ese tipo de planteamientos da una idea de hasta dónde puede llegar esta deriva.

¿Cuál es hoy el principal punto ciego en el debate político: la evasión, el impacto sobre las plataformas o los efectos secundarios?

—Es todo a la vez. No todas las consecuencias afectan igual a las mismas personas, pero todas van sumando pequeños pasos negativos. Se da por hecho que hay cosas que funcionan, y no está claro que sea así. Antes de desplegar una tecnología que puede cambiar internet, deberíamos tener un estudio serio sobre sus ventajas, sus inconvenientes y sobre si realmente va a funcionar.

¿Qué tipo de estudios faltan exactamente para poder afirmar que la verificación reduce de verdad el acceso de menores a contenidos prohibidos?

—Tienen que existir estudios sobre la capacidad de evasión de esta implantación. Hay que saber cuán fácil es esquivarla, qué ocurre cuando alguien no puede entrar, a qué plataformas migra, qué efectos genera sobre la privacidad y qué desigualdades introduce. No se pueden desplegar tecnologías sin evidencia de que vayan a funcionar. La pregunta básica es cuál es la evidencia de que los beneficios van a ser mayores que los problemas. En el fondo, es una cuestión bastante simple: no aceptaríamos una vacuna sin ensayos rigurosos, y sin embargo parece que estamos dispuestos a introducir una tecnología de enorme impacto social sin ese mismo nivel de exigencia.

En las tecnologías concretas de verificación, ¿qué es lo que falla?

—Falla la idea de que exista un mecanismo neutro y sin consecuencias. Si usamos un documento de identidad, habrá personas que no puedan utilizarlo bien o que se vean obligadas a dar más datos. Si usamos sistemas biométricos o de estimación, entramos en dinámicas todavía más invasivas. Hay mecanismos que pueden decidir la edad a partir de la cara o incluso a partir de otros rastros de comportamiento. El problema es que, además de la pérdida de privacidad para usar esos servicios, se crea una infraestructura que no se ha estudiado lo suficiente.

Cuando se endurecen los controles, ¿qué suele pasar en la práctica?

—Que se produce una migración hacia otras plataformas o servicios aún menos seguros, y muchas veces con contenido más adulto o más extremo. Si pones barreras en un sitio, no haces desaparecer la búsqueda de ese contenido. Lo que a menudo haces es empujar a la gente hacia otros espacios con más inseguridad y menos control real. Ocurre algo parecido en otros ámbitos: cuando determinados medicamentos, sustancias o drogas se ilegalizan o se vuelven mucho más difíciles de conseguir, muchas veces se buscan por otras vías, con más riesgo. Aquí puede pasar lo mismo: más inseguridad y, además, más recogida de datos.

¿Cuál es el daño más infravalorado: las filtraciones de datos, la trazabilidad de hábitos o la creación de una infraestructura reutilizable para vigilancia?

—Todo eso forma parte del mismo problema. No afecta por igual a todas las personas, pero va sumando. Está la pérdida de privacidad, tanto directa —porque tienes que dar datos o pasar por una cámara— como indirecta, porque se normalizan mecanismos de identificación para acceder a internet. Y también está el riesgo de construir una infraestructura que luego pueda usarse para otras cosas. Son pequeños pasos negativos que, juntos, cambian la red.

También ha mencionado la desigualdad. ¿Por qué?

—Porque no sabemos bien qué va a generar. Si alguien no puede usar su DNI electrónico, no sabe cómo hacerlo o no tiene acceso a esos sistemas, acabamos entrando en una rueda en la que tiene que dar más datos o queda fuera. Lo digital no afecta igual a todo el mundo. Ese también es un coste que muchas veces se olvida en el debate.

¿Qué pregunta le haría usted a un ministro que defiende la verificación de edad como una solución rápida?

—Le preguntaría cuál es la evidencia de que los beneficios van a ser mayores que los problemas. Y también si de verdad aceptaríamos desplegar una tecnología así en otro ámbito sin pruebas suficientes de eficacia. No deberíamos hacerlo aquí tampoco.

Hay quien sostiene que cualquier medida es mejor que no hacer nada. ¿Qué responde?

—Que muchos de los problemas vienen de cómo las redes sociales muestran contenido extremo a través de algoritmos de consumo. Hemos creado algo nocivo y ahora intentamos corregirlo por otra vía, y no de forma directa. Quizá lo que habría que regular es precisamente eso. No se trata solo de controlar el acceso, sino de intervenir sobre los mecanismos que están amplificando el daño.

A madres y padres preocupados, ¿cuál es su consejo práctico hoy, mientras la política discute y la tecnología no ofrece garantías?

—Que hay mecanismos locales para controlar aplicaciones en los móviles de los hijos, aunque incluso ahí hay que tener en cuenta que después existe una nube que recoge datos. Y también que no se puede responder a todos los miedos pidiendo al Estado una infraestructura total de control. Todos podemos tener miedo de que nuestros hijos vayan a un lugar peligroso por la noche, pero eso no significa que debamos pedir un policía en cada esquina.

¿Hemos llegado a un punto de no retorno?

—No, nunca es un punto de no retorno. Como sociedad podemos detectar que ciertas cosas no son correctas y decidir cambiarlas. La sociedad es la que decide cómo quiere ser. Lo importante es que nos dejen decidir.

Suscríbete para seguir leyendo

Tracking Pixel Contents