Entrevista | Víctor Salgado Seguín Experto en Derecho Digital

“La IA no es más que una herramienta. Puede usarse para el bien o para el mal”

La normativa de la Unión Europea (UE) para regular los usos y límites de la inteligencia artificial en el espacio comunitario está a punto de entrar en vigor. En las próximas semanas, el Boletín Oficial de la UE publicará este nuevo texto legal, que pone coto a esta tecnología, foco de todas las miradas en tiempos recientes, cuyas implicaciones a nivel de privacidad y otros derechos analiza, en una entrevista con El Correo Gallego, el experto en Derecho Digital Victor Salgado Seguín

El abogado experto en Derecho Digital Víctor Salgado Seguín

El abogado experto en Derecho Digital Víctor Salgado Seguín / Cedida

¿Cuál es el estado actual de la regulación de IA en Europa? ¿Qué pasos se están dando?

Se ha trabajado en una doble vertiente. Por un lado, algunos Estados miembro han ido estableciendo regulaciones. Por otro, se ha dado luz verde a la AI Act, la ley de inteligencia artificial europea. Si bien todavía tardará en entrar en vigor plenamente sí que de alguna manera va a ir entrando poco a poco en aplicación. Es un reglamento amplio, ambicioso, bastante complejo. En no mucho tiempo iremos viendo sus efectos y más o menos en 2026 estará ya plenamente en aplicación.

¿Qué tipo de prácticas se prohíben con esta normativa?

Se prohíbe todo lo que sea utilizar la IA para manipular a las personas. Es decir: para extraer información como los sentimientos de las personas para manipularlos. También se prohíbe la captación masiva de datos biométricos o la vigilancia a partir de ellos. Como las cámaras que vigilan espacios públicos con sistemas de biovigilancia. Esto también estará prohibido, salvo determinados casos muy concretos autorizados por la autoridad judicial y solo para perseguir delitos grave

No hace tanto que una empresa fue noticia en España por ofrecer dinero a sus usuarios a cambio de sus datos biométricos. ¿Para qué pueden ser utilizados?

Es un tema muy espinoso porque hay una tensión muy importante entre los Estados que quieren tener herramientas para perseguir el crimen y los derechos fundamentales de los ciudadanos. La biometría es muy importante en todo esto. Se podría armar una base de datos con las caras de todos los ciudadanos que se quiera tener bajo vigilancia y controlar sus movimientos en espacios públicos a partir de estos sistemas.

Este sería un uso de la tecnología demasiado agresivo con nuestros derechos fundamentales. El Parlamento Europeo ha estado luchando para no caer en un sistema que se parezca a un Estado totalitario de vigilancia masiva. En Europa ya ha habido varias sentencias tendentes a proteger los derechos de los ciudadanos de estas vigilancias, de que las personas no se conviertan en un objeto de análisis y de toma de decisiones basadas en criterios que, evidentemente, no podemos controlar, como el crédito social. Se ha llegado, de alguna manera, a un entendimiento en el que no se trata de una prohibición genérica, sino que está autorizada en determinados casos.

"Con la biometría se podría armar una base de datos con las caras de todos los ciudadanos que se quiera tener bajo vigilancia y controlar sus movimientos"

Otro aspecto en el que se ha puesto énfasis es la explicabilidad de los sistemas de inteligencia artificial. ¿Se ahonda en este aspecto en la nueva normativa?

Totalmente. Va encaminada precisamente a esto. A controlar lo que llamamos finalidades de alto riesgo. Al hecho de que se pueda decidir a partir de determinados parámetros de una persona sobre hechos como la concesión de un crédito, por ejemplo. Ya no se trata solo de evitar los sistemas de clasificación social, sino de que exista transparencia en la toma de estas decisiones.

Hay dos elementos fundamentales: la transparencia, que la tecnología sea explicable; y la supervisión humana, que es algo que ya se incorpora en la propia normativa española. El Reglamento General de Protección de Datos ya en estos momentos obliga a que, si se toma una decisión automatizada basada en este tipo de herramientas inteligentes, se informe de cuál ha sido el procedimiento y las lógicas detrás del mismo. Además, los interesados tienen derecho a que se revise la decisión por parte de un humano, algo que, por otra parte, es más complejo con las nuevas tecnologías de IA generativa, que ni sus propios desarrolladores pueden explicar con claridad.

¿Hay algún aspecto más que resaltar de la nueva legislación?

La obligación de etiquetado. Que cuando se usen herramientas de IA sobre todo generativa, se marque su origen y el empleo de estas tecnologías. Las fotos simuladas mediante IA son cada vez más indistinguibles de la realidad. Se ven a personas, incluso a veces personas conocidas, famosas, en distintas situaciones, con imágenes que tienen tanta calidad que nos pueden llegar a confundir. Son los famosos deepfakes. Con la nueva normativa estos contenidos tendrán que ser etiquetados.

La normativa hace hincapié en la necesidad de supervisión humana. ¿Está demasiado extendida la creencia de que la tecnología es autosuficiente?

Como siempre que surge una tecnología disruptiva, y desde luego la IA lo es, siempre se establecen varias posiciones, a veces muy radicales. Están los pesimistas tecnológicos, que dicen que la IA va a acabar con nosotros. Y los más optimistas, que creen que va a solucionar todos los problemas de la humanidad.

Como siempre suele pasar en estos casos, la tecnología no es más que una herramienta. Puede tener un potencial muy grande, pero puede ser utilizada para el bien o para el mal. La responsabilidad de la ley es precisamente evitar los peores escenarios -como la afectación de derechos fundamentales o el acceso a puestos de trabajo- y maximizar los beneficios.

Normalmente estamos en el punto medio. No llegan a ser la panacea que soluciona todos los problemas ni tampoco la catástrofe absoluta. La ley lo que intentará es que no solo sea el punto medio, sino que también nos podamos acercar lo máximo posible al punto más positivo.

"La tecnología no es más que una herramienta. Puede tener un potencial muy grande, pero puede ser utilizada para el bien o para el mal. La responsabilidad de la ley es precisamente evitar los peores escenarios"

¿Es posible que la sociedad y las leyes avancen al mismo ritmo que la tecnología? ¿No van a ir siempre a remolque?

Es bueno que la ley se tome su tiempo para dejar de alguna manera avanzar a la tecnología, ver cuáles son los principales riesgos y luego tomarse su tiempo para regular y evitarlos. Con la IA cambia un poco este paradigma. ¿Por qué? Porque se ven unos riesgos tan importantes que el legislador se ha sentido en la obligación de intervenir. Incluso a petición de muchos de los propios desarrolladores que trabajan con esta tecnología. Porque si la ley tarda mucho puede ser demasiado tarde para prevenir los peores resultados. Creo que en Europa se ha optado por la vía adecuada, que no siempre es la perfecta, pero se ha hecho por prevenir los peores escenarios con prohibiciones concretas. Se corre el riesgo de frenar la innovación, pero hay que recordar que que algo pueda hacerse no significa que se deba. Un cuchillo es una herramienta que puede ser utilizada para cortar la comida o para matar a una persona. La IA es otra herramienta. El tono que se ha dado a esta regulación es el adecuado, porque de alguna manera se ha optado por la gestión del riesgo.

¿Existe la suficiente conciencia acerca del valor de los datos personales y de las implicaciones de la actividad en Internet?

Cada vez más, pero no la suficiente. Todavía somos enormemente inconscientes. Hemos pasado de disfrutar del “todo gratis” a entender que nadie nos regala nada, que pagamos con otra moneda, que en este caso son nuestros datos. Poquito a poco la gente ya se ha hecho consciente y ha visto los riesgos que esto supone.