Saltar al contenido principalSaltar al pie de página

Entrevista | Ulises Cortés Catedrático de la Politécnica de Catalunya

Ulises Cortés: «Una pregunta a ChatGPT consume como una lámpara encendida una hora»

Experto en Inteligencia Artificial, participará este viernes en Santiago en un seminario sobre ética e IA, coorganizado por el Arzobispado y la CEG

Ulises Cortés, catedrático de la Politécnica de Catalunya y experto en inteligencia artificial

Ulises Cortés, catedrático de la Politécnica de Catalunya y experto en inteligencia artificial / Cedida

Koro Martínez

Koro Martínez

Santiago

Experto en Inteligencia Artificial, Ulises Cortés participará este viernes en Santiago en un seminario sobre ética e IA, coorganizado por el Arzobispado y la CEG. Aboga por cumplir todos los requisitos legales, ya que «nadie va a la cárcel por no ser ético, pero sí puede hacerlo si no cumple la ley»

Participará en Santiago en un seminario sobre Ética e IA. ¿Cuál es su opinión al respecto?

Lo importante es que las compañías cumplan con todos los requisitos legales. Y algunos tienen implicaciones éticas. Yo insisto en la legalidad porque nadie va a la cárcel por no ser ético, pero sí puede sufrir multas e ir a prisión si no cumple la ley. Es importante que las empresas que ganan ingentes beneficios utilizando tecnologías basadas en la inteligencia artificial paguen sus impuestos allí donde trabajan. Tiene una connotación legal y ética. No vale que digan que lo hacen si usan todos los subterfugios para no pagar lo que deben.

¿Y en el ámbito ético?

Al diseñar una herramienta basada en la IA, hay aspectos normativos éticos de cada sociedad, y es muy difícil crearla respetuosa con todas las vertientes éticas, de ahí que apostemos por la parte legal. La Constitución es de obligado cumplimiento, como las leyes que emanan de ella. En Europa buscamos que se ajusten a valores éticos y morales europeos. Hay sensibilidades distintas, pero tenemos normativas europeas muy claras, y debemos lograr que las grandes compañías estadounidenses y chinas cumplan las leyes, que los datos se queden en Europa.

¿Se quedan en Europa?

Aún no, pero cada vez lo hacen más y los que antes ofrecían cosas gratis, empiezan a cobrar por ellas.

¿Por qué deben hacerlo?

Porque la ley general de protección de datos es muy garantista con nuestra intimidad y nuestra privacidad. El concepto de intimidad y privacidad de las personas por encima de los 40 años se parece muy poco al de los jóvenes. Estos han estado más expuestos a las redes sociales, son más liberales con su intimidad, y debemos preguntarnos qué clase de sociedad es la que viene.

¿Es ahí clave el marco legal?

Sí, pero el problema es que la gente no ha leído la Constitución, no conoce los derechos humanos, con lo cual no sabe aquellos que se le deben respetar, pero tampoco las obligaciones que conlleva disfrutar de un derecho. Se ha eliminado de muchos currículos el pensamiento crítico, la filosofía.

Confusión con la inteligencia artificial

¿Qué es la inteligencia artificial?

Es una disciplina científica, y su objetivo es entender cómo pensamos los humanos. La forma de experimentar los que investigamos en esta área es reproduciendo, experimentando con una máquina. Y luego, hay un conjunto de aplicaciones basadas en la IA, que los periodistas confunden con la ciencia.

¿Qué conlleva esa confusión?

Es algo que no pasa con la física o la biología, y es un problema porque la IA tampoco es una disciplina nueva, lleva casi 70 años, pero los últimos 5 se ha convertido en una palabra de uso cotidiano, hay máquinas inteligentes, hay de todo inteligente. Estamos sufriendo un abuso y una pérdida del sentido. La IA es una disciplina científica, y sus aplicaciones, en la mayoría de los casos, no han sido certificadas. Modelos masivos del lenguaje como los de ChatGPT o Gemini no ha habido ningún Gobierno que los certifique como libres de problemas, perjuicios o daños colaterales como sí pasa con las medicinas. La mayor parte son de tipo beta, no son productos terminados. Es una responsabilidad del usuario utilizarlas porque, si hay un fallo, no incumple con ninguna legislación.

¿Lo sabe el usuario?

No, no lo sabe. Entrar ahí es como si hubiera una canasta de caramelos en un parque y nadie supiera quién los ha puesto.

¿Se está intentando regular?

Se está intentando, pero estas compañías son más fuertes.

Sí hay aplicaciones que facilitan nuestra vida...

A las de tipo beta todavía no les he encontrado ningún beneficio, pero muchas sí que están certificadas y son de uso común. La mayor parte de los sistemas de identificación de tarjetas de crédito en comercio electrónico, sistemas de IA de control crítico en los aviones o las aplicaciones para mejorar la eficiencia del consumo eléctrico.

La sostenibilidad de la inteligencia artificial

¿Mejoras en sostenibilidad?

Sí, pero también hay que saber que una pregunta a ChatGPT consume el equivalente a una lámpara de 40 vatios encendida durante una hora y seis litros agua. Y se hacen 300 millones de preguntas al día.

¿Cómo podemos concienciar?

Educando. Yo participé en la escritura de la Estrategia Española de IA, en su primera versión, donde pedimos que los profesores de Primaria y Secundaria recibieran cursos especializados porque los padres son analfabetos digitales en general. Son usuarios, pero no entienden la tecnología.

Pero no se ha puesto en práctica...

La educación está delegada a las comunidades y no se ha hecho. En China es ya obligatorio que los niños a partir de seis años tengan un aprendizaje específico.

Equilibrio entre ética y uso de la IA

¿Cómo equilibrar en la balanza ética y beneficios?

La pregunta es si estamos dispuestos como sociedad a que la gente gane más dinero a costa de un mayor desempleo, a utilizar herramientas que ahorran costes a cambio de dejar a las personas sin trabajo. La posición es bastante común dentro de la comunidad científica de la IA, y hay propuestas para que si un trabajador es sustituido por un robot, el empresario pague para que ese trabajador, que tendrá una edad, sea entrenado para otro empleo.

¿Sustituirá al periodista una herramienta de IA?

Aún no, pero estamos en ello. Si los jóvenes que ahora utilizan estas herramientas, no las tuvieran, hoy no sabríamos cómo redactan. Poco antes de la pandemia una intérprete de la CE interrogó a investigadores sobre si las máquinas sustituirían a los traductores e intérpretes, y yo le dije que con los traductores iría muy rápido, cinco años, y ya estamos ahí. Con los intérpretes es más difícil porque las máquinas aún no son capaces de tener empatía, ciertas actitudes corporales y giros de voz no pueden traducir. ¿Es posible en diez años pedirle a una máquina que ante una información que está sucediendo sea capaz de resumirla y descubrir lo noticiable y, además, construir un titular? Es probable.

¿Habrá máquinas con empatía?

Hay mucha gente intentándolo, y sucederá como con los humanos, somos animales que nos entrenamos en un entorno y, al igual que hay personas que no son empáticas, tampoco podemos pedirle a las máquinas que hagan muchas cosas que nosotros no hacemos.

Tracking Pixel Contents