investigación. El CiTIUS acogió ayer una mesa redonda en la que se trataron los desafíos que se presentan a la incorporación de las tecnologías inteligentes en el sector público // Senén Barro pide una normativa de obligado cumplimiento TEXTO Lorena Rey

“La ética no es suficiente para regular la inteligencia artificial”

El Correo Gallego
mesa redonda celebrada este viernes en el CiTIUS sobre inteligencia artificial. Foto: Antonio Hernández.

¿Dominará la inteligencia artificial a la humanidad? Hay dudas, pero lo que está claro es que entramos en una nueva fase de su desarrollo en la que un grupo de empresas están ya creando el código que marcará a las generaciones futuras. Habrá que ver si la IA que se está realizando con fines comerciales será la que marque nuestro día a día en un futuro próximo.

Sobre esta cuestión, el CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la USC) acogió ayer una mesa redonda en la que se abordaron los desafíos ante la incorporación de las tecnologías inteligentes en el sector público.

Presentada por el Alberto Bugarín y moderada por Luís Míguez Macho, profesor de la Facultad de Derecho de la USC, contó con las intervenciones de Senén Barro Ameneiro (CiTIUS); Manuela Battaglini Manrique de Lara, de Transparent Internet; Ulises Cortés García, da Universitat Politècnica de Catalunya y Barcelona Supercomputing Center; Cristina García-Herrera, del Instituto de Estudios Fiscales y Univ. Complutense de Madrid; Dagmar Monett-Díaz, da Berlin School of Economics and Lawse.

la transparencia La primera en hablar fue Manuela Battaglini Manrique de Lara. Habló sobre cuáles son los requisitos mínimos de transparencia que debería tener la utilización de la inteligencia artificial en el sector público y las garantías a los ciudadanos para que sea fiable en el ámbito público.

El uso de las decisiones automatizadas está causando más discriminaciones y sesgos y aumentando la desigualdad social, según señaló Battaglini. Así, la prioridad debe estar enfocada en la legitimidad democrática, responsabilidad pública y poner en el centro derechos socioeconómicos. “Necesitamos renovación de instituciones públicas porque la situación es que el ciudadano si quiere preguntar porque se ha tomado una decisión algorítmica que le supuso un impacto en su vida el único recurso es ir a Tribunales, la institución que confeccione la transparencia como medio y no un fin”, aportó. Considera por tanto que se necesita una transparencia más extensa que solo una auditoría algorítmica.

mejorar los servicios públicos Por su parte Ulises Cortés García respondió a la pregunta de cómo podría la inteligencia artificial ayudar a mejorar la prestación de servicios públicos y cúales serían los ámbitos del sector público en los que la IA podría presentar una mejora de los servicios a los ciudadanos-

El experto incidió en que el problema de base es la creación de la infraestructura, la falta la formación del ciudadano, en referencia a que el donante mayor de datos es él para administraciones y empresas.

La digitalización del ecosistema urbano construye una red de soporte para aplicación puntual de la inteligencia artificial como los coches autónomos y de esta forma la administración podría saber quien incumple la norma. El ciudadano se convierte en un ciudadano digital.

Sobre la idea de una inteligencia artificial confiable para mejorar la prestación de los servicios públicos habló de varios aspectos como la digitalización responsable, falta conceptualización y diseño, encontrar mejores métodos para facilitar y su seguridad y la responsabilidad de la revisión de cuentas.

enfoque regulatorio global vs específico Cristina Guerra se centró en la perspectiva jurídica: ¿Cuál sería el enfoque regulatorio más adecuado? Destacó que es necesaria una regulación común porque existen principios comunes que exigen un marco general pero al mismo tiempo es partidaria de una regulación específica para el ámbito público porque ante la existencia de una serie de especificidades. “Nos hemos preocupado por aspectos éticos de la inteligencia artifical pero ahora se ve que hay relevancia jurídica y es necesaria regulación”, aportó.

La Agencia Tributaria tiene una posición puntera en el uso de la tecnología e inteligencia artificial y ya la aplica en la relación con los contribuyentes para luchar contra el fraude fiscal. Cada vez hay una mayor cantidad de datosy se pretende que los contribuyentes estén mejor informados en un mundo de inmediatez. El empleo de la inteligencia artificial ya está siendo relevante. Ahora es necesario determinar si hay que establer límites, porque existe posibilidad de sesgos. Guerra señala que se debe diferenciar entre un sesgo, que no tiene por qué ser ilegal de una discriminación.

En su intervención lanzó una pregunta: ¿Solemos admitir más los errores humanos que los errores de las máquinas?

los sesgos Dagmar Monett-Díaz se centró en los sesgos que más se detectan en la inteligencia artificial para perfilar servicios al públicos y en cómo evitarlos.

Con el boom de los últimos años a todo se le llama inteligencia artificial y “no es el caso”. Los sesgos no son más que algo que se hizo de forma restringida para ciertos tipos de poblaciones, “incluso los que diseñan los programas tienen ciertos sesgos”. Cree que existieron siempre y no únicamente en la inteligencia artificial, además de que existen varios tipos.

Cuando se habla de inteligencia artifical pretende que no se use para desingar cuaquier cosa que sea software. Sostiene que nunca va a haber un software libre de errores y sesgos, lo que implica ponerse de acuerdo para regular cómo vamos a usar y diseñar la tecnología. “Los ciudanos deben ser educados en cómo formar las tecnologías y en un paso posterior como utiilzar las tecnologías en la inteligencia artificial”, añade. Cuando el sesgo lo tiene un ser humano es más fácil de corregir mientras que si lo tiene una máquina es más difícil de hacerse esa idea, más complejo de descubrir.

marco ético En último lugar intervino Senén Barro al que se le preguntó sobre si se tienen en cuenta los requerimientos técnicos en el desarrollo de la inteligencia artificial y cómo avanzar en el marco ético.

Antes de nada, en referencia a la pregunta de Cristina Guerra de cómo juzgamos a las máquinas y si son más fiables que las personas apoya el pensamiento de que se juzga peor a las máquinas frente a los humanos cuando las consecuencias de las decisiones suponen un daño físico.

Ya centrado en la pregunta, Barro habló de que en el sector público hay una mayor preocupación y sensibilidad por la investigación. Ahora toca ver cómo mejorar el marco ético y la educación en tiempos y formas adecuadas.

Apunta Barro que ahora todo es inteligencia artificial que “añade capas de autonomía, aprendizaje a cualquier dispositivo, máquina o software. Esas capas de inteligencia hacen que estemos ante una tecnología que va a cambiar nuestras vidas y nos tiene así que preocupar”.

Habla de una mayor sensibilidad en el sector público y de que en el privado tienen siempre por delante el discurso de guía ética. Ve necesaria una normativa de obligado cumplimiento ya que en ausencia de un marco regulatorio de cuáles son las reglas del juego, se hacen cosas que no tienen el enfoque correcto. “Frente a la onmipotencia de las empresas eso solo se puede resolver a través de la sociedad marcando el rumbo de lo que se quiere. Y no está mal que sean representantes como los gobiernos quienes lo hagan. No puede ser la ética sin más el marco que vaya definiendo cómo se debe trabajar”, aseguró el director del CiTIUS.