Image Image Image Image Image Image Image Image Image Image

Internet MediaLab Complutense | January 18, 2018

Scroll to top

Top

Rigth now get betting bonus from bookmakers
No hay comentarios

En la pervivencia del periodismo, la clave está en el algoritmo

En la pervivencia del periodismo, la clave está en el algoritmo
Jesus Flores

Vía Cultura de Red.- Kevin Kelly (2012)[1], investigador y experto en tecnologías, dice que las tecnologías buscan para nosotros, pero ¿Qué buscan?. De esta afirmación nos valemos para indicar que el uso de aplicaciones por parte de los usuarios no viene dado per se para el periodismo o comunicación, sino que corresponde adaptar, desarrollar y diseñar un entorno más, específico para el funcionamiento de tal o cual tecnología. Un desarrollo que se basa en que un todo funcione según los flujos de trabajo o parámetros que tenga trazados. Es decir, un flujograma generado por un algoritmo.

Antes de dar la definición acerca del algoritmo y su relación con el periodismo y, concretamente con el periodismo de datos, vamos a situarnos en los antecedentes del periodismo de investigación a través de fuentes y datos.

Desde los revolucionarios años 1960, la situación del periodismo de investigación ha cambiado mucho, sobre todo, porque se ha abierto una variante que además de utilizar los datos y las fuentes, suma la utilización de diferentes aplicaciones tecnológicas para su desarrollo. Tras el escándalo del Caso Watergate, recogido por Carl Bernstein y Bob Woodward, en el Washington Post –por el que recibieron el premio Pulitzer en 1973– provocando la dimisión de Richard Nixon en 1974, se han sucedido muchos trabajos de investigación basándose en la recuperación y análisis de datos e información pública como la  que hicieron los citados periodistas del Post en los archivos de la Biblioteca del Congreso estadounidense.

Hoy, la técnica de los algoritmos juega un papel fundamental en la construcción de la nueva información. Solo necesitamos saber un poco de lógica binaria y de ingeniería inversa para crear nuestro propio algoritmo que puede servir para procesar la información. Por ejemplo, la mayoría de agregadores de noticias están hechas por algoritmos que permiten seleccionar y encontrar información según el interés de cada usuario. Google es por excelencia, el rey de los algoritmos.

Pero ¿Qué es un algoritmo? ¿Qué conocimientos son necesarios para crearlos? ¿Por qué se han convertido en una especie de piedra filosofal en la construcción de la información? ¿Qué relación guarda con el periodismo de datos? Para empezar, un algoritmo es el proceso de una acción. Un proceso o flujo de trabajo que está supeditado a ordenes (parametrizadas) que el creador del algoritmo ha configurado.  Según recoge la Wikipedia, un algoritmo es

un conjunto prescrito de instrucciones o reglas bien definidas, ordenadas y finitas que permite realizar una actividad mediante pasos sucesivos que no generen dudas a quien deba realizar dicha actividad. Dados un estado inicial y una entrada, siguiendo los pasos sucesivos se llega a un estado final y se obtiene una solución. Su empleo es en matemáticas, lógica, ciencias de la computación y disciplinas relacionadas.

Los algoritmos pueden ser expresados de muchas maneras, incluyendo al lenguaje natural, pseudocódigo, diagramas de flujo y lenguajes de programación entre otros. Muchos algoritmos son ideados para implementarse en un programa utilizando el pseudocódigo que es una descripción de alto nivel de un algoritmo que emplea una mezcla de lenguaje natural con algunas convenciones sintácticas propias de lenguajes de programación, como asignaciones, ciclos y condicionales, aunque no está regido por ningún estándar.

La relación existente entre un algoritmo y el periodismo de datos es cada vez más pertinente. El hecho más reciente se desprende de una nota del Knight Center Periodismo para las Américas[2] que da cuenta en un post acerca de un terremoto de magnitud 4.4 que despertó a California el lunes 17 de marzo de 2014. El primer reportero en cubrir la noticia fue un algoritmo llamado Quakebot, recopilador de datos diseñado por el periodista y programador Ken Schwencke de Los Ángeles Times, según referencia la revista digital Slate.

Quakebot fue diseñado por Schwencke hace más de dos años para recopilar datos de interés periodístico de alertas publicadas por el Servicio Geológico de los Estados Unidos (USGS,siglas en inglés), introduciéndolos a una plantilla noticiera escrita con anterioridad. La nota preliminar se guarda en el sistema de manejo de contenido del periódico mientras que se manda una alerta por correo a un editor humano, quien revisará la nota y decidirá si publicarla en línea. Cuando Quakebot recibió una alerta del USGS señalando un terremoto de magnitud 3.0 o mayor (algo menor no causaría mucho impacto) a las 6:25 a.m., hora del Pacífico, mandó un correo a Schwencke quien publicó la nota pocos minutos después, asegurando que su periodico, Los Angeles Times, fuera el primer medio en reportar la noticia. Y es sólo el principio….


[1][1] Kevin Kelly fue editor ejecutivo de la revista Wired durante siete años. Ha escrito para The New York Times, The Wall Street Journal y the Economist. Previamente ha Publicado el libro Fuera de Control y el bestseller New Rules for a New Economy.

Submit a Comment

Too many requests