
Uso de la inteligencia artificial en el periodismo de investigación: el ejemplo de ProPublica.

Las herramientas de inteligencia artificial han comenzado a integrarse en el periodismo de investigación como un recurso para analizar grandes volúmenes de datos y detectar patrones que podrían pasar desapercibidos en un análisis manual. Sin embargo, su uso plantea desafíos en términos de precisión y supervisión humana. Un ejemplo reciente es el de ProPublica, que empleó IA para examinar una base de datos publicada por el senador Ted Cruz sobre supuestas subvenciones “woke” financiadas por la Fundación Nacional de Ciencias. La investigación reveló cómo algunos proyectos científicos fueron señalados por el simple uso de términos como “diversidad” o “mujer”, evidenciando la importancia de un análisis riguroso antes de difundir información basada en algoritmos.



El análisis comenzó cuando Ken Schwencke, editor sénior de ProPublica especializado en datos y aplicaciones informáticas para noticias, descargó la base de datos y detectó que algunas subvenciones incluidas en la lista parecían no tener relación con las acusaciones de Cruz. Entre ellas, una sobre el desarrollo de recubrimientos avanzados para espejos de detectores de ondas gravitacionales en la Universidad de Florida. Aunque la descripción del proyecto mencionaba que promovía la educación y la diversidad al proporcionar oportunidades de investigación para estudiantes de distintos niveles y fomentar la participación de mujeres y minorías subrepresentadas, el propósito científico del estudio parecía no estar alineado con la supuesta agenda política que Cruz denunciaba.
Para analizar el contenido de las subvenciones de manera sistemática, el equipo de ProPublica decidió utilizar un modelo de lenguaje basado en IA, similar a los que alimentan herramientas como ChatGPT. El objetivo era identificar patrones en los proyectos incluidos en la base de datos y determinar por qué ciertos términos o conceptos habían sido marcados como “woke” por los responsables del informe.

Uno de los hallazgos clave de la investigación, liderada por los periodistas Agnel Philip y Lisa Song, fue que la lista incluía proyectos científicos sin aparente conexión con la política o la ideología, más allá de incluir palabras como “diversidad” o “mujer” en su descripción. Un caso ilustrativo fue una subvención de 470.000 dólares para estudiar la evolución de las plantas de menta y su propagación por diferentes continentes. El análisis mostró que esta investigación había sido señalada simplemente porque en su solicitud se utilizaba la palabra “diversificar” en el contexto de la biodiversidad vegetal y “femenino” para describir el apoyo a una joven científica dentro del equipo de investigación.
Otro ejemplo destacado fue un proyecto de desarrollo de un dispositivo para tratar hemorragias severas, el cual fue marcado porque contenía términos como “víctimas” (en referencia a víctimas de disparos) y “trauma”.
A pesar de los intentos de ProPublica por obtener comentarios de la oficina de Cruz y del comité republicano del Senado que impulsó el informe, no recibieron respuesta.

Metodología y supervisión en el uso de IA
Para evitar que la IA introdujera errores en el análisis, ProPublica diseñó una serie de indicaciones precisas en sus consultas al modelo de lenguaje. Se le pidió que identificara posibles elementos relacionados con diversidad, equidad e inclusión en las descripciones de las subvenciones, pero con la instrucción explícita de no inventar información si no podía determinar con certeza una conexión. Dado que los modelos de IA pueden generar respuestas incorrectas o erróneas, conocidas como “alucinaciones”, cada resultado fue revisado manualmente por el equipo de periodistas.
Además, antes de publicar la investigación, los reporteros verificaron de manera independiente los datos obtenidos y solicitaron comentarios a las personas y entidades mencionadas en el informe, asegurando que la información presentada fuera precisa y equilibrada.