Ciudad de México,
Martín Olivera
Crédito foto: Sergio F Cara (NotiPress/Composición)
Sam Rodriques, neurobiólogo y fundador de FutureHouse, afirma que la inteligencia artificial (IA) puede revolucionar la forma en como los investigadores sintetizan información científica. En septiembre, su equipo anunció un sistema basado en IA capaz de producir resúmenes sobre temas complejos en cuestión de minutos, con precisión comparable a la de artículos de Wikipedia. El sistema generó descripciones sobre 17.000 genes humanos, muchos de los cuales carecían de información exhaustiva en la plataforma, lo cual es un avance significativo en la accesibilidad del conocimiento científico.
Este uso de IA en la síntesis de investigaciones no es nuevo; durante décadas, los científicos buscaron formas de automatizar esta ardua tarea. La llegada de modelos de lenguaje como ChatGPT generó interés renovado, pero con limitaciones. Paul Glasziou, experto en revisiones sistemáticas, señala que estos sistemas no pueden realizar análisis detallados de alta calidad de forma autónoma y actualmente, su utilidad es limitada en procesos complejos como las revisiones sistemáticas, requiriendo criterios rigurosos y meticulosos para evaluar la calidad de los estudios.
Algunas herramientas como Consensus y Elicit representan un avance en la indagación y análisis automatizado, permitiendo a los usuarios encontrar estudios relevantes y extraer información específica. No obstante, no garantizan la precisión total, y los expertos advierten que podrían conducir a revisiones erróneas o sesgadas. "La preocupación es que todas las décadas de investigación sobre cómo hacer una buena síntesis de evidencias comiencen a verse socavadas", expresó James Thomas, del University College de Londres.
La organización FutureHouse, respaldada por el ex CEO de Google, Eric Schmidt, lanzó un sistema de IA llamado PaperQA2, diseñado para analizar el texto completo de artículos académicos. Este sistema utiliza una investigación exhaustiva y ofrece información detallada basada en literatura accesible. Sin embargo, su proceso es costoso y puede tardar minutos en generar resultados, en contraste con otros motores de búsqueda convencionales.
El equipo de FutureHouse realizó una prueba en la cual un panel de biólogos evaluó la precisión de artículos generados por IA frente a artículos humanos en Wikipedia. Los resultados indicaron que las entradas generadas por IA presentaron menos errores de razonamiento. Mushtaq Bilal, investigador y creador de la herramienta Research Kick, explica que este tipo de IA puede mejorar la eficiencia en la redacción de revisiones, pero la mayoría de los motores de búsqueda de ciencia de IA no pueden producir una revisión bibliográfica precisa de forma autónoma.
Glasziou y su equipo establecieron un récord en 2019 al completar una revisión sistemática en dos semanas gracias a la ayuda de IA, un proceso el cual puede durar meses o años. Pese a estos logros, expertos como Justin Clark, del equipo de Glasziou, enfatizan sobre la transparencia y reproducibilidad de las herramientas de IA como fundamentales para asegurar su validez. Clark y otros investigadores destacan la importancia de evaluar rigurosamente la precisión de estas tecnologías antes de implementarlas de manera masiva en la investigación científica.
Con la creciente adopción de IA en la síntesis de información se plantea un dilema. Si bien puede agilizar las revisiones científicas, también podría facilitar la proliferación de estudios de baja calidad. Glasziou concluye que el impacto final en la calidad de la literatura científica depende de si las herramientas de IA se emplean de manera rigurosa o se convierten en un recurso para producir contenido sin el debido control.