Una breve historia de 50 años de periodismo y de datos

Todo comenzó con el intento de predecir el resultado de las elecciones presidenciales en Estados Unidos. Hoy, más de seis décadas después, el periodismo asistido por computadora es una parte esencial del periodismo de investigación a nivel mundial. Una historia por Brant Houston.

Foto: jwyg en flickr (licencia CC) /GIJN

Muchos periodistas establecen el año 1952 como el comienzo del periodismo asistido por computadora y el periodismo de datos, cuando la cadena CBS en los Estados Unidos trató de usar expertos con una computadora central para predecir el resultado de la elección presidencial. Esto es un poco exagerado, o tal vez es un falso principio porque nunca utilizaron los datos. En realidad no fue sino hasta 1967 que el análisis de datos comenzó a hacerse popular.

[Esta historia fue publicada originalmente por la Red de Periodismo de Investigación Global. Lee el contenido original aquí.]  

En ese año, Philip Meyer del Detroit Free Press utilizó una computadora central para analizar una encuesta de residentes de Detroit con el propósito de comprender y explicar los graves disturbios que estallaron en la ciudad ese verano. (Décadas más tarde, The Guardian en el Reino Unido utilizó algunos de los mismos enfoques para analizar disturbios raciales, citando el trabajo de Meyer.)

Meyer pasó a trabajar en la década de 1970 con los periodistas del Philadelphia Inquirer Donald Barlett y James Steele para analizar los patrones de sentencias en el sistema judicial local y con Rich Morin en The Miami Herald para analizar los registros de evaluación de propiedad. También escribió un libro llamado ‘Periodismo de Precisión (Precision Journalism)‘ en el que explicó y defendió el uso de análisis de bases de datos y métodos de investigación social en el periodismo. (Desde entonces se han publicado varias ediciones).

Sin embargo, sólo unos pocos periodistas utilizaron estas técnicas hasta mediados de la década del 80, cuando Elliot Jaspin en los Estados Unidos recibió el reconocimiento en Providence Journal Bulletin por analizar bases de datos para sus historias, incluidas las relativas a conductores peligrosos de autobuses escolares y un escándalo político que involucraba préstamos para la vivienda. Al mismo tiempo, a finales de 1980, otros 50 periodistas en los Estados Unidos comenzaron a analizar datos para sus artículos, a menudo consultando a Meyer, Jaspin, o Steve Doig del Miami Herald. 

También ayudó a estos esfuerzos las mejoras en las computadoras personales y el programa Nine Track Express, desarrollado por Jaspin y el periodista-programador Daniel Woods, para facilitar la transferencia de cintas de computadora (que contenían nueve “pistas” de información) a los ordenadores personales utilizando una unidad de cinta portátil. Esto permitió a los periodistas eludir la burocracia y retrasos habituales al usar computadoras centrales en periódicos y universidades.

En 1989, el periodismo de Estados Unidos reconoció el valor del periodismo asistido por computadora cuando el The Atlanta Journal-Constitution ganó un premio Pulitzer por sus historias sobre las disparidades raciales en los préstamos hipotecarios. Durante el mismo año, Jaspin estableció en la Escuela de Periodismo de Missouri lo que hoy se conoce como el National Institute for Computer-Assisted Reporting (NICAR). Luego, en 1990, el profesor de la Universidad de Indiana James Brown celebró la primera Conferencia de Periodismo Asistido por Computadora en Indianápolis.

En la década del 90 y hasta principios de 2000, el uso del periodismo asistido por computadora floreció, debido principalmente a los seminarios realizados en Missouri y en todo el mundo por Investigative Reporters and Editors (IRE) y NICAR, que es un programa conjunto de IRE y la Escuela de Periodismo de Missouri. Esto se vio favorecido por la publicación de mi libro en 1996, el primero sobre el tema: Periodismo Asistido por Computadora: Una Guía Práctica (Computer-Assisted Reporting: A Practical Guide)’, que ya va por su cuarta edición.

Al principio del siglo XXI la Red Global de Periodismo de Investigación (Global Investigative Journalism Network) comenzó a jugar un rol crucial en el movimiento, a partir de su primera conferencia en 2001 en Copenhague, que ofreció una fuerte capacitación práctica sobre el periodismo asistido por computadora.

Comienza NICAR

NICAR fue creado en 1994, y junto con la directora de formación Jennifer LaFleur iniciamos un ambicioso programa itinerante que eventualmente incluyó hasta 50 seminarios al año. En 1996 el programa ya había llegado a otros países, y los periodistas extranjeros comenzaron a asistir a los “campamentos de entrenamiento” (seminarios intensivos de una semana) en NICAR. Además, IRE, con el apoyo de la Fundación McCormick, estableció un programa en la ciudad de México que supervisó el entrenamiento de datos en América Latina.

Aunque los periodistas fuera de Estados Unidos dudaban de que pudieran obtener datos en sus propios países, en 1990 la formación les mostró cómo bases de datos internacionales o de Estados Unidos podían ser utilizadas inicialmente para encontrar historias en sus países, o cómo podían construir sus propias bases de datos o encontrar datos en sus propios países.

Como resultado de los esfuerzos de capacitación, para 1999 periodistas en Finlandia, Suecia, Nueva Zelanda, Venezuela, Argentina, Holanda, Noruega, Brasil, México, Rusia, Bosnia y Canadá ya habían producido historias gracias al periodismo de datos.

Mientras tanto en Londres en 1997, el profesor de periodismo Milverton Wallace comenzó a celebrar una conferencia anual llamada NetMedia que ofrecía sesiones sobre Internet y clases de periodismo asistido por computadora dirigido por periodistas daneses y de NICAR. Las clases cubrían los usos básicos de Internet, hojas de cálculo, bases de datos y gestores, y contaban con una buena asistencia de periodistas del Reino Unido y otros países de Europa y África.

En Dinamarca, los periodistas Nils Mulvad y Flemming Svith, que habían asistido a un campo de entrenamiento NICAR en Missouri en 1996, organizaron seminarios con NICAR en 1997 y 1998 en Dinamarca. También escribieron un manual danés sobre periodismo asistido por computadora y crearon el Centro Internacional Danés de Informes Analíticos (DICAR) en 1998 con Tommy Kaas como presidente. También co-organizaron la primera Conferencia de Periodismo de Investigación Global con IRE en 2001.

El periodismo asistido por computadora (CAR) también se convirtió en un elemento básico en conferencias en Suecia, Noruega, Finlandia y los Países Bajos, de la mano de Helena Bengtsson (Suecia) y John Bones (Noruega).

A través de las conferencias globales de periodismo de investigación, el uso de datos también se extendió rápidamente por toda Europa del Este. En esta región, Drew Sullivan (quién creó el Organized Crime and Corruption Reporting Project) y el periodista rumano Paul Radu, fueron sus principales impulsores.

También inicialmente se dictaron seminarios en China a través de la Universidad de Missouri y en la India a través del World Press Institute. Durante el mismo período Steve Doig, un pionero del periodismo asistido por computadora y hoy Knight Chair en la Universidad Estatal de Arizona, viajó internacionalmente para brindar capacitaciones, al igual que los directores de formación de NICAR (Jo Craven McGinty, Tom McGinty, Ron Nixon, Andy Lehren y Sara Cohen), ahora todos periodistas trabajando para el New York Times o el Wall Street Journal.

Aumenta la visualización de datos

En 2005, la visualización de datos para noticias recibió un gran impulso cuando el programador estadounidense Adrian Holovaty creó un Google mash-up de los datos del crimen de Chicago. El proyecto estimuló un mayor interés en el periodismo entre los programadores de computadoras y cartógrafos. Holovaty luego creó en 2007 el proyecto, ahora discontinuado, Each Block, en el que utilizó más datos locales para mapas en línea en los EE.UU. Tiempo después el proyecto fue criticado por no verificar la exactitud de los datos del gobierno más a fondo.

Además, en 2007 el movimiento de datos abiertos en los EE.UU. comenzó en serio, generando otros esfuerzos similares en todo el mundo. El movimiento aumentó la accesibilidad de los datos del gobierno a nivel internacional, a pesar de que se siguió necesitando leyes de acceso a la información para obtener datos no publicados por el gobierno.

Para el año 2009, el creciente número de programadores informáticos y programadores en el periodismo se tradujo en la creación de Hacks/Hackers que ayudó a un mayor intercambio entre las dos profesiones y a aliviar algo del choque cultural entre los dos grupos.

Aron Pilhofer, primero en el New York Times y ahora en The Guardian, y Rich Gordon de Medill School of Journalism de la Universidad Northwestern, impulsaron la creación de “una red de personas interesadas en el desarrollo de aplicaciones web y digitales de innovación tecnológica apoyando la misión y objetivos del periodismo”. Al mismo tiempo, en Silicon Valley Burt Herman reunió periodistas y tecnólogos. Los tres luego se unieron para crear “Hacks/Hackers”. El resultado ha sido un aumento de la sofisticación tecnológica dentro de las salas de redacción que ha aumentado la capacidad de extraer datos de sitios web y hacerlos más manejables, visuales e interactivos.

Otro resultado de la sinergia entre periodistas y programadores fue el nuevo respeto por saber cómo las bases de datos pueden ser defectuosas y cómo garantizar la integridad de los datos.

Como bien lo ha dicho Marcos Vanetta, un fellow del Mozilla OpenNews que trabajaba enThe Texas Tribune: “Los errores no son opcionales … En software estamos acostumbrados a cometer errores y corregirlos después. Siempre podemos arreglar eso más tarde y, en el peor de los casos, tenemos una copia de seguridad. En los medios no se pueden cometer errores: hay una reputación que cuidar. El equipo editorial no está tan acostumbrado al fracaso como lo están los desarrolladores”.

Más avances

Los años 2009, 2010 y 2011 también fueron de avance para el uso de los datos en el periodismo. En 2009 en Canadá Fred Vallance-Jones y David McKie publicaron “Periodismo Asistido por Computadora: Un Manual Integral (Computer-Assisted Reporting: A Comprehensive Primer)”, con un énfasis especial en ese país. El Centro Europeo de Periodismo comenzó su centro periodismo basado en datos que ha organizado talleres en toda Europa. El periodista Paul Bradshaw llegó a ser reconocido como un pionero en el periodismo de datos en el Reino Unido. Wikileaks publicó sus Diarios de la Guerra de Afganistán, integrado por documentos secretos, y luego los Diarios de la Guerra de Irak, forzando a periodistas de todo el mundo a enfrentarse a enormes cantidades de datos en texto.

Esto fue seguido en 2011 por la impresionante serie de The Guardian sobre los disturbios raciales de la ciudad y la primera conferencia Dataharvest, organizada porJournalismfund.eu.

También en el Reino Unido, el Centre for Investigative Journalism (dirigido por Gavin MacFadyen), que se unió en sus comienzos con IRE para ofrecer clases de periodismo de datos durante su curso de verano, ha continuado con un fuerte programa con la ayuda del veterano David Donald.

Mientras tanto, en la Universidad de Wits en Sudáfrica, Anton Harber y Margaret Renn han aumentado sustancialmente las sesiones de datos en la Conferencia Anual Power Reporting, y el análisis de datos también se ha afianzado en Asia y Australia.

En 2015, y después de casi 50 años de periodismo a partir de datos, está claro que los datos no sólo son una parte rutinaria del periodismo, sino también una fuerza motriz para contar historias. Y las herramientas y la metodología continúan expandiéndose.

El uso de las computadoras para el periodismo comenzó aplicando métodos de las ciencias sociales y el análisis estadístico y datos a las cuestiones sociales. En los últimos años se ha extendido ampliamente desde el recuento de incidentes y accidentes, a la utilización de hojas de cálculo y administradores de bases de datos para comparar conjuntos de datos aparentemente no relacionados, al mapeo de datos de asignación geográfica y a la extracción de datos web, limpieza de datos más eficiente, a una mejor interacción con la audiencia y crowdsourcing, a proyectos multimedia y minería de datos.

Ha habido una larga discusión sobre cómo llamar al uso de datos para el periodismo de alta calidad y diversos esfuerzos de darle un nombre. Pero así se lo llame “periodismo de precisión”, “periodismo asistido por computadora”, “periodismo de datos”, “periodismo basado en datos”, o “periodismo computacional”, la buena noticia es que está aquí para quedarse.

Para recursos de periodismo investigativo, visite GIJN Resource Center.
Lo invitamos a seguir a Brant Houston, autor del contenido original, en su cuenta de Twitter @BrantHouston.

> Esta es una versión editada de la historia original que se publicó por primera vez en GIJN – licencia Creative Commons Attribution-NonCommercial 4.0 International. 

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí