La inteligencia artificial se decanta por la evidencia científica frente a los bulos sobre las vacunas del covid

Un estudio de los grupos GenPoB y GenVip de la USC y del IDIS valida el ChatGPT como herramienta frente a las falsas creencias

Federico Martinón Torres, izquierda, y Antonio Salas Ellacuriaga, responsables del estudio. /santi Avite

Federico Martinón Torres, izquierda, y Antonio Salas Ellacuriaga, responsables del estudio. /santi Avite / koro martínez

La inteligencia artificial responde de forma casi inmediata y con los postulados de la evidencia científica cuando se le pregunta por cuestiones relacionadas con las vacunas contra el covid, desmintiendo los múltiples mitos que en torno a la seguridad sobre su uso se han difundido desde el inicio de la pandemia.

Al menos eso es lo que se desprende de un estudio liderado por el Grupo de Genética de Poblaciones en Biomedicina (GenPoB) y el Grupo de Investigación en Genética, Vacunas y Enfermedades Infecciosas (GenVip) con investigadores de la USC, el Instituto de Salud Investigaciones de Santiago (IDIS) y el Hospital Clínico Universitario de Santiago (CHUS), y que acaba de ser publicado en la revista Human Vaccines and Immunotherapeutics.

Liderados por los profesores de la USC Antonio Salas y Federico Martinón, los investigadores plantearon al popular chatbot de inteligencia artificial ChatGPT las 50 preguntas más frecuentes sobre la vacuna contra el covid, basándose en la web desarrollada durante la pandemia por el Centro Colaborador de la OMS en Seguridad de las Vacunas en Santiago de www.covid19infovaccines.com ). Estas preguntas incluían consultas basadas en mitos e historias falsas, como la que atribuye el desarrollo del covid persistente a la vacuna.

El análisis de la veracidad de las respuestas le otorga una puntuación media de 9 sobre 10 y señala que, en el resto de los casos, la herramienta también ofreció datos correctos, a pesar de dejar algunas lagunas en la información aportada, por lo que ambos investigadores consideran que es “una fuente confiable de información no técnica para el público”, si bien admiten que en algunas situaciones puede llegar a cambiar sus respuestas.

Partiendo de la base de que la inteligencia artificial ya es una realidad, con sus ventajas y desventajas, el autor principal de este estudio, Antonio Salas, asegura en conversación con este periódico que “en general, ChatGPT te va a responder basándose en la evidencia científica disponible, desmintiendo los mitos que circulan en las redes sociales incluso aunque tú le preguntes con una afirmación, aunque fuerces la pregunta hacia la afirmación que buscas, te va a llevar por el camino que se alinea con la evidencia científica”.

Y lo hace de forma prácticamente inmediata, algo que considera “interesante porque te conduce con inmediatez en la dirección apropiada frente a otras herramientas como los buscadores, en los que la información es mucho más heterogénea y es el usuario el que tiene que distinguir entre bulo y realidad”.

Entre esas ventajas, destaca además que la inteligencia artificial en este caso utiliza un lenguaje no demasiado técnico, “fácilmente comprensible para el público” y sin perder rigor científico, con el añadido de que “cuando le haces una pregunta también te redirige hacia las fuentes originales, te aporta referencias que tú puedes consultar”. E insiste en que “cuando tú le haces una consulta sobre un tema que está sometido a la desinformación, no retroalimenta esos bulos, te da una información mucho más certera, y a la vez más sencilla”.

Resalta que “para mí tiene mucho valor esa inmediatez que te aporta y la certeza que te da, la corrección a la que te dirige si tú no la torturas en la dirección que te conviene, llevándote por el camino contrastado científicamente y desterrando con información esos bulos rápidamente”.

Considera, por tanto, que “estamos ante una de las herramientas más destacables, aunque no sabemos en qué dirección va a evolucionar, lo está haciendo en tiempo real y habrá que continuar explorando sobre ello”.

Respecto a algunas de las falsas creencias difundidas en relación con el uso de las vacunas contra el covid, menciona por ejemplo el bulo de que de esta forma el virus se integraba en el genoma, cuando “no solo no es el caso, sino que cumple su efecto estimulando el sistema inmune y después desaparece, o como que sean las causantes del covid persistente porque la evidencia científica sobre eso no existe”.

Entiende que “puede haber mucha gente que de forma legítima sienta miedo a las novedades, pero un bulo con cierto impacto social puede causar mucho daño”, como sucedió durante la pandemia, cuando la desinformación en redes sociales contribuyó a desconfiar de la vacunación, y la OMS ya había alertado en el año 2019 sobre la vacilación ante las vacunas como una de las diez principales amenazas para la salud mundial.

El estudio ahora publicado se llevó a cabo en el Centro Colaborador de la OMS en Seguridad de Vacunas en Santiago, coordinado desde el Complexo Hospitalario Universitario de Santiago (CHUS) por el profesor Federico Martinón Torres. Los investigadores del centro exploraron los mitos sobre la seguridad de las vacunas y sobre aquellas situaciones médicas falsamente consideradas como motivo para no vacunar, factores que han contribuido a generar dudas sobre el proceso de vacunación.

Consistió en probar la capacidad de ChatGPT para obtener datos correctos y compartir información precisa sobre la seguridad de la vacuna contra el covid de acuerdo con la evidencia científica existente. Esta tecnología permite tener conversaciones e interacciones similares a las humanas con un asistente virtual. La herramienta es muy fácil de usar, lo que la hace accesible a una amplia población, pero genera dudas entre muchos gobiernos, preocupados por la posibilidad de que se utilice de manera fraudulenta en entornos educativos como las universidades.

Se plantearon al chatbot las preguntas más frecuentes que recibe el centro colaborador de la OMS en Santiago, abordando conceptos erróneos sobre seguridad, falsas contraindicaciones médicas y contraindicaciones verídicas y casos en los que el personal sanitario debería tomar precauciones.

Los expertos analizaron las respuestas y las calificaron según su veracidad y precisión en comparación con la evidencia científica actual y las recomendaciones de la OMS y otras agencias internacionales, y la mayoría de las preguntas habían sido respondidas correctamente con una puntuación promedio de 9 sobre 10, que se define como “excelente” o “bueno”. Las respuestas proporcionadas por ChatGPT a las tres clases de preguntas fueron en un 85,5 % precisas y en un 14,5 % precisas, pero con lagunas de información.

El profesor Martinón advierte que “ofrece respuestas diferentes si se repite la pregunta con un retraso de unos segundos”, y se muestra confiado “en que se cree una IA diseñada específicamente para contrarrestar los ataques”.