por Tiago Dória

O Wikileaks ganhou, uma vez mais, a atenção das pessoas.
Neste domingo, o site publicou mais de 90 mil documentos secretos sobre as operações militares dos EUA, entre 2004 e 2009, no Afeganistão. Os documentos revelam detalhes nada positivos da atuação do exército americano no país, como mortes de civis não divulgadas.
A publicação dos relatórios mostra que algumas publicações estão tentando atender a uma das habilidades cada vez mais exigidas das equipes de jornalismo – conseguir transformar montanhas de dados em algo legível para os leitores.
NYTimes, Guardian e Der Spiegel receberam com antecedência de quase um mês os relatórios, que estavam em formatos como KML, CSV e SQl. A intenção era que eles tivessem tempo de analisá-los, checá-los e apresentá-los da forma mais atraente e legível aos leitores.
Por coincidência, o Wikileaks enviou as informações para duas das publicações que mais têm efetivamente trabalhado com a questão do jornalismo de dados.
Guardian, mais experiente em lidar com dados, foi o que melhor apresentou e contextualizou o material. Um infográfico interativo foi produzido. Cada relatório foi plotado em um mapa.

O NYTimes, por sua vez, preferiu montar uma reportagem grande com destaque aos casos mais polêmicos e links diretos para os documentos.

A revista Der Spiegel também optou pelos infográficos e chegou a fazer links para a “concorrência”. Ou seja, para as reportagens do Guardian e do NYTimes.

Para entender o Wikileaks, responsável pela divulgação dos documentos, é necessário conhecer um pouco o mantra de que “a informação quer ser livre”. No caso, os fins justificam os meios. O importante é que os documentos fiquem online e acessíveis a qualquer pessoa.
O Wikileaks surgiu em 2006, criado por Julian Assange, importante hacker e ativista da transparência pública na Austrália. Hoje o site é considerado uma organização internacional ligada à liberdade de expressão na web. Conta com uma equipe formada por jornalistas, matemáticos e dissidentes chineses responsáveis por fazer uma checagem inicial das dezenas de documentos sigilosos e denúncias que chegam ao site.
Na prática, funciona como ponte entre denunciantes e o público em geral. A pessoa envia os documentos ao Wikileaks, tem a sua identidade mantida em sigilo e as informações são tornadas públicas.
Concordo com Alexis Madrigal, editor do site da revista Atlantic. Apesar de ter servido de canal para importantes denúncias, como o vídeo da morte dos jornalistas da Reuters no Iraque, ainda é cedo para julgar o Wikileaks. Ninguém sabe com 100% de certeza o que ele é e como realmente funciona. Em princípio, parece que o seu interesse é público e não político em divulgar esse tipo de informação.
No caso dos documentos do Afeganistão, acredito que, no final das contas, o vazamento chamou mais atenção do que o próprio conteúdo dos relatórios.

Neste sentido, é um exagero, claro, acreditar que o Wikileaks substitui o trabalho de algumas publicações. Pelo contrário, ele exalta mais ainda o trabalho delas.
O próprio diretor do Wikileaks já afirmou que seu site sozinho não faz muita coisa. O Wikileaks nasceu no ambiente de informação da internet, onde coexistência é uma palavra importante.
No caso, o Wikileaks divulga apenas as informações brutas. Quem tem paciência ou tempo para analisar mais de 90 mil planilhas? É aí que entra a habilidade dos jornalistas e dos programadores-jornalistas de checar, analisar, questionar, mesclar (mashup) e tornar legíveis esses dados, seja em forma de infográficos, aplicativos ou mesmo uma reportagem em texto.
Acredito que o caso do vazamento dos relatórios do Afeganistão mostra um caminho que será cada vez mais comum. A publicação na web de informações brutas por parte de governos e organizações públicas e privadas. E o trabalho da imprensa em traduzir essa montanha de dados. Contudo, para isso, serão exigidas “novas” habilidades das equipes de jornalismo, como noções de scraping (raspagem de dados), programação e uso de banco de dados.
Journalism Needs Data in 21st Century
by Zach Beauvais | August 5, 2009
Journalism has always been about reporting facts and assertions and making sense of world affairs. No news there. But as we move further into the 21st century, we will have to increasingly rely on "data" to feed our stories, to the point that "data-driven reporting" becomes second nature to journalists.
There is nothing new about pointing out the importance of public data being made available. Sir Tim Berners-Lee has discussed at length the importance of governments and institutions putting their data online, making it accessible and useful. His TED talk and interviews with ReadWriteWeb and Talis (disclosure: I am a blogger at Talis) all explain his belief that by publishing linked data we can begin to solve many of the problems the world faces. Innovations in medicine, science, and development could all be achieved if only currently hidden data were made available. Data-driven journalism could be the first step in realizing this dream. The best stories would then come from innovators who read about trends reported in news media and are then able to draw new conclusions and solve bigger problems. In his recent discussion with BBC, Berners-Lee said that the next step is to go for low-hanging fruit by just getting the data out there.
Thus far, this has made a lot of sense to me, and I have been tracking the publication of linked data and increasing access to public knowledge as emerging trends over at Talis. But my perspective has shifted a bit in the past few weeks.
First, there was data.gov and President Obama's call for more access to government data. A sitting head of state (and one of some significance) was clearly calling for public access to government data: this was news! But the idea has been discussed, praised, and debated for a while since then and may have lost some of its luster.
Then about a month ago, UK Prime Minister Gordon Brown made it part of his digital strategy to prioritize the publication of government information. He asked Sir Tim personally "to help us drive the opening up of access to Government data in the web over the coming months" and appointed Berners-Lee an official governmental adviser. By now, neither of these stories is news and comparisons between the initiatives have been made.
The Guardian newspaper recently launched its own Data Blog, with the intention of letting readers access, mash up, and reuse much of its information in the form of data, which could in turn drive stories.
What is perhaps not as explicitly recognized is the voracious appetite for data that has been apparent for months. It is less about turning good ideas into stories and more about seeing how data informs our understanding of events happening right now. Each new initiative is another piece of low-hanging fruit picked.
Access to data is important: it drives innovation and even social change. Governments that publish their data have to become more transparent. Humanitarian organizations that make their findings known could spark bigger projects and source innovative solutions from their communities. Scientific findings and raw information could be used to solve bigger problems than the result of a single experiment or trial could ever manage. Even the simple comparison of two or more facts can lead to new insight, and all of these things happen only when the walls around an institution become porous.
2009 could become known as the year of data, the year of open access, or the year of the semantic Web (see links above for how this relates), and it may also be the first year when it becomes news that data wasn't published in a story when it should have been. That a government body isn't being transparent or is blocking access by publishing its findings in PDF or other non-linking formats would make a very interesting story indeed. We can expect to see more and more organizations and public bodies remove their own barriers through initiatives and legislation. Examples have been set, and seeing excuses die along with barriers is not far-fetched.
Do you know of other data-driven stories? We'd love to hear about any insights that were made through publicly accessible data or where this data might come from next.
* Zach Beauvais is a Platform Evangelist for Talis and editor of Nodalities Magazine.





















0 comentários:
Postar um comentário