Uso de la inteligencia artificial en el periodismo de investigación: el ejemplo de ProPublica.

Las herramientas de inteligencia artificial han comenzado a integrarse en el periodismo de investigación como un recurso para analizar grandes volúmenes de datos y detectar patrones que podrían pasar desapercibidos en un análisis manual. Sin embargo, su uso plantea desafíos en términos de precisión y supervisión humana. Un ejemplo reciente es el de ProPublica, que empleó IA para examinar una base de datos publicada por el senador Ted Cruz sobre supuestas subvenciones “woke” financiadas por la Fundación Nacional de Ciencias. La investigación reveló cómo algunos proyectos científicos fueron señalados por el simple uso de términos como “diversidad” o “mujer”, evidenciando la importancia de un análisis riguroso antes de difundir información basada en algoritmos.

La inteligencia artificial ha transformado múltiples sectores y el periodismo no es una excepción. En un contexto en el que las redacciones enfrentan la reducción de recursos y una creciente presión por producir contenido en menor tiempo, las herramientas de IA han comenzado a desempeñar un papel clave en la recopilación, análisis y procesamiento de grandes volúmenes de datos.

Sin embargo, su uso en la industria informativa plantea tanto oportunidades como desafíos: si bien puede ayudar a identificar patrones y tendencias en bases de datos complejas, también requiere una supervisión estricta para evitar sesgos, errores o tergiversaciones.

Algunas de las principales organizaciones periodísticas han empezado a experimentar con la IA en sus investigaciones, especialmente en la verificación de datos y el análisis de documentos extensos. La clave está en utilizar esta tecnología como un apoyo para los periodistas y no como un reemplazo, asegurando que los resultados obtenidos sean revisados por profesionales antes de ser publicados. Un ejemplo de este enfoque es el trabajo realizado por ProPublica, un medio de comunicación sin ánimo de lucro especializado en reportajes de investigación.

El análisis comenzó cuando Ken Schwencke, editor sénior de ProPublica especializado en datos y aplicaciones informáticas para noticias, descargó la base de datos y detectó que algunas subvenciones incluidas en la lista parecían no tener relación con las acusaciones de Cruz. Entre ellas, una sobre el desarrollo de recubrimientos avanzados para espejos de detectores de ondas gravitacionales en la Universidad de Florida. Aunque la descripción del proyecto mencionaba que promovía la educación y la diversidad al proporcionar oportunidades de investigación para estudiantes de distintos niveles y fomentar la participación de mujeres y minorías subrepresentadas, el propósito científico del estudio parecía no estar alineado con la supuesta agenda política que Cruz denunciaba.

Para analizar el contenido de las subvenciones de manera sistemática, el equipo de ProPublica decidió utilizar un modelo de lenguaje basado en IA, similar a los que alimentan herramientas como ChatGPT. El objetivo era identificar patrones en los proyectos incluidos en la base de datos y determinar por qué ciertos términos o conceptos habían sido marcados como “woke” por los responsables del informe.

Uno de los hallazgos clave de la investigación, liderada por los periodistas Agnel Philip y Lisa Song, fue que la lista incluía proyectos científicos sin aparente conexión con la política o la ideología, más allá de incluir palabras como “diversidad” o “mujer” en su descripción. Un caso ilustrativo fue una subvención de 470.000 dólares para estudiar la evolución de las plantas de menta y su propagación por diferentes continentes. El análisis mostró que esta investigación había sido señalada simplemente porque en su solicitud se utilizaba la palabra “diversificar” en el contexto de la biodiversidad vegetal y “femenino” para describir el apoyo a una joven científica dentro del equipo de investigación.

Otro ejemplo destacado fue un proyecto de desarrollo de un dispositivo para tratar hemorragias severas, el cual fue marcado porque contenía términos como “víctimas” (en referencia a víctimas de disparos) y “trauma”.

A pesar de los intentos de ProPublica por obtener comentarios de la oficina de Cruz y del comité republicano del Senado que impulsó el informe, no recibieron respuesta.

Metodología y supervisión en el uso de IA

Para evitar que la IA introdujera errores en el análisis, ProPublica diseñó una serie de indicaciones precisas en sus consultas al modelo de lenguaje. Se le pidió que identificara posibles elementos relacionados con diversidad, equidad e inclusión en las descripciones de las subvenciones, pero con la instrucción explícita de no inventar información si no podía determinar con certeza una conexión. Dado que los modelos de IA pueden generar respuestas incorrectas o erróneas, conocidas como “alucinaciones”, cada resultado fue revisado manualmente por el equipo de periodistas.

Además, antes de publicar la investigación, los reporteros verificaron de manera independiente los datos obtenidos y solicitaron comentarios a las personas y entidades mencionadas en el informe, asegurando que la información presentada fuera precisa y equilibrada.