"La IA nunca debe tomar la decisión final, debe hacerlo un humano"

Atocha Aliseda, doctora en Filosofía y Sistemas Simbólicos en la Universidad de Stanford, ofreció este jueves una conferencia en la Facultad de Filosofía sobre los alcances del ChatGPT, destacando que los ordenadores por sí solos no funcionarían

Atocha Aliseda en la conferencia sobre inteligencia artificial, ayer en la Facultad de Filosofía de la USC

Atocha Aliseda en la conferencia sobre inteligencia artificial, ayer en la Facultad de Filosofía de la USC / Jesús Prieto

La inteligencia artificial no debe reemplazar a los humanos a la hora de tomar las decisiones, sino amplificar sus capacidades. Esta idea la transmite la mexicana Atocha Aliseda, doctora en Filosofía y Sistemas Simbólicos en la Universidad de Stanford (California) e investigadora del Instituto de Investigaciones Filosóficas de la UNAM, que este jueves ofreció la conferencia ‘Inteligencia artificial y creatividad: de Leibniz a ChatGPT?' en la Facultade de Filosofía de la Universidad de Santiago.

La conferencia, dividida en tres partes, giró en torno a la reflexión filosófica sobre el proyecto de la inteligencia artificial. En la primera, titulada ‘Del cálculo al cómputo’, Atocha Aliseda transmitió que la noción de cómputo que usan los ordenadores actuales es una noción “bastante antigua”. De ahí que hiciera mención a Leibniz, filósofo alemán del siglo XVII. “Tenía un lema que se llamaba ‘Calculemos’ y su idea era que podíamos codificar todo el lenguaje y hacer decisiones a través de ello”, comenta a EL CORREO Atocha Aliseda.

 Esta es la idea que hay detrás del ChatGPT, como un modelo de lenguaje creado con el propósito de mantener una conversación con el usuario. Su IA está entrenada en un conjunto de datos de texto de Internet y puede generar texto similar al humano para responder preguntas.

En la segunda parte, “Las preguntas por la inteligencia y la creatividad”, relató como otro filósofo, en este caso, Alan Turing, inventor del modelo de los ordenadores actuales, se hace la pregunta de si las máquinas (ordenadores) pueden ser inteligentes. “Él no hablaba de si las computadoras podían o no ser inteligentes. Lo que remarcaba era si tenían capacidad para simular la inteligencia, es decir, si podían parecer como inteligentes”, especifica.

La última parte de la charla, bajo el título “Las inteligencias artificiales hoy” sirvió a la investigadora para introducir una serie de distinciones filosóficas “que creo que no están en los medios y redes sociales y son importantes”. 

Así diferenció entre inteligencia artificial débil y fuerte. “La fuerte hace referencia a que queremos hacer ordenadores inteligentes que además tengan conciencia y emociones. Y la débil es en la que ha habido muchísimo avances y es lo que nos tiene impresionados con el ChatGPT”, comenta. Sobre esta última cita la resolución de problemas, juegos de estrategia, diagnóstico y planeación. A mayores, Aliseda comenta que existen programas de diagnóstico médico que ayudan a los radiólogos a identificar si una placa de mama puede o no desarrollar cáncer de mama. “Esa es una simple idea, el oncólogo tiene, además, que analizar si la persona tiene antecedentes genéticos o cuál es su modo de vida”, apunta. 

Otra distinción importante es lo que Aliseda llama ‘la mente extendida’. Cree que se deben pensar en las máquinas “no como algo externo, sino como nuestras extensiones”. Como ejemplo cita la calculadora, una tecnología que “nos ayuda a hacer cálculos más rápido de lo que lo hacemos las personas, y nos ahorra tiempo, pero realmente hace lo mismo que haría un humano”.

Atocha Aliseda puso en valor que el hecho de que su conferencia se enmarque en el ciclo Cultura en Mazarelos la llevó a pensar en el significado de la palabra mazarelo en gallego como “un instrumento que consiste en un palo con una pieza redonda en uno de los extremos, que se utiliza para batir la leche”. Y lo identifica con los ordenadores. “En la medida en que nosotros interpretemos sus datos son unos grandes asistentes, pero no son autónomos, no tienen inteligencia de manera independiente”, aclara.

La investigadora recalca que el ChatGPT es un modelo que no entiende. “Produce, se comporta como si fuera inteligente, pero si no estuvieran todos los textos ya hechos en Internet, no tendría ninguna fuente para producir nuevo texto”, señala.

“El ChatGPT produce y se comporta como si fuera inteligente, pero si no estuvieran todos los textos ya hechos en Internet no tendría ninguna fuente para producir nuevo texto”

Atocha Aliseda

— Doctora en filosofía e investigadora

Así, ve que los alcances del ChatGPT son “increíbles” al poder ayudar a corregir texto o a conseguir información que “nosotros solos no podríamos conseguir”. Un potencial visible en la educación. “La inteligencia artificial nos va a ayudar a pensar, pero nunca debe tomar la decisión final, en lugar del humano”, asegura.

Para la investigadora es importante ver como usar las distintas herramientas para mejorar el aprendizaje en las aulas. “Muchas veces estas tecnologías generan nueva información, son mejores que nosotros, pero no nos pueden explicar cómo obtuvieron esa información”, dice. 

En palabras de Aliseda, en temas como la medicina, “en donde lo que tenemos en las manos son vidas humanas”, no podemos utilizar algo que no sabemos cómo produjo esa información. También está en contra de que se utilicen herramientas de inteligencia artificial para procesar juicios

Aliseda trasladó la importancia que tiene la filosofía para poder trabajar conjuntamente con los informáticos que están desarrollando las IA. “No es solo una cuestión de ingeniería, sino que toca las humanidades, y muy en particular a la filosofía”, confiesa.