Normas sobre las patentes

La Unión Europea obligará a ChatGPT a revelar si viola los derechos de autor

La vertiginosa expansión del uso de ChatGPT ha abierto un profundo debate regulatorio en todo el mundo

Imagen de archivo del logo de ChatGPT junto a la bandera de la UE.

Imagen de archivo del logo de ChatGPT junto a la bandera de la UE. / EP

Carles Planas Bou

La Unión Europea (UE) obligará a las empresas que utilicen aplicación de inteligencia artificial generativa, como ChatGPT, a revelar si utilizan cualquier material protegido por derechos de autor. Así se establece en el principio de acuerdo que el Parlamento Europeo alcanzó este jueves para dar forma a la pionera ley que regulará el uso de la IA.

Aunque el texto aún está sujeto a modificaciones que deberán votarse el 11 de mayo, el consenso parlamentario establece que el uso de sistemas generativos deberá ser más transparente, forzando a las compañías a destapar con qué tipo de material se han entrenado. Bruselas ha optado por esa vía después de las denuncias contra ChatGPT, pero también otras aplicaciones como Midjourney, por usar textos o imágenes de otras personas sin su consentimiento. Según Reuters, algunos miembros del comité encargado de redactar la ley propusieron prohibir totalmente el uso de ese material, pero finalmente se ha apostado por requerir una mayor transparencia en una disposición que se añadió a última hora.

Ley pionera

Después de tres años de consultas y discusiones, la Comisión Europea legisló en abril de 2021 y por primera vez la creación de una ley que regule esta tecnología. Los eurodiputados encargados con esta tarea dedicaron más de un año y medio a desarrollar una proposición, pero la irrupción el pasado noviembre de ChatGPT —impulsada por la compañía OpenAI, participada por Microsoft— les obligó a repensar ese texto. Desde entonces, han estado negociando cómo regular una IA generativa cuya popularidad se ha disparado en los últimos meses, propiciando una carrera entre grandes empresas para desplegar este tipo de herramientas.

La vertiginosa expansión del uso de ChatGPT ha abierto un profundo debate regulatorio en todo el mundo. En Europa, Italia ha bloqueado el acceso a la 'app' al entender que podría estar violando las leyes comunitarias de protección de datos. Por su parte, el regulador español ha abierto una investigación contra este chatbot mientras sus homólogos europeos han creado un grupo de trabajo para coordinar futuras acciones.

Sistemas de riesgo

El proyecto de ley propone regular la IA según unos usos que categoriza según sus riesgos. "Cuanto mayor sea el riesgo que puede conllevar más firme y estricta será la norma", explicó hace dos años la vicepresidenta europea, Margrethe Vestager.

Así, Bruselas prohibirá los sistemas de "riesgo inadmisible", eso es, la vigilancia masiva, la policía predictiva o la categorización de ciudadanos a través de datos biométricos. En segundo nivel hay los sistemas de "alto riesgo", como el uso de algoritmos para procesos de contratación laboral o para la concesión de créditos, que estarán sujetos a "obligaciones estrictas".

En el tercer nivel están los de "riesgo limitado", entre los que se incluyen el uso de bots conversacionales o los 'deepfakes'. En este caso, se tendrá que informar a los usuarios para que sean conscientes de que interactúan con una máquina, no con un humano. Por último, hay los sistemas de "riesgo mínimo o nulo", que no estarán sujetos a ningún requisito y que afecta a la mayoría de los usos de IA.