- 13.03
- 2020
- 11:30
- Reinaldo Chaves
Formação
Acesso à Informação
NICAR20 celebra o jornalismo investigativo e os ‘nerds’
Mais de 1.100 pessoas estiveram em Nova Orleans (EUA) de 5 a 8.mar.2020 para a NICAR20, a maior conferência internacional de jornalismo de dados organizada anualmente pelo IRE (Investigative Reporters & Editors). Esta instituição foi criada em 1975 por jornalistas norte-americanos para melhorar a qualidade do jornalismo investigativo e defender os direitos da profissão no país. A Abraji esteve lá acompanhando os cursos e discussões.
Jornalistas dos EUA e do restante das Américas, Europa, África, Ásia e Oceania apresentaram trabalhos e técnicas que usam diariamente em redações ou como freelancers, seja com linguagens de programação, planilhas simples, estatística, pedidos à lei local de acesso à informação, gráficos, vazamentos de dados, banco de dados, entre outras fontes. Tudo para o jornalista mais novato ou sem habilidades tecnológicas, até para os mais experientes e nerds profissionais.
O próprio evento colocou no ar um site (em inglês), que reúne os cursos e apresentações deste ano, e também no Github do IRE/NICAR. Porém, nem todos os materiais já estão no ar. E também no Github da Abraji serão traduzidos semanalmente os materiais mais práticos — em média um por semana. Se você quiser colaborar na tradução escreva para [email protected].
O primeiro conteúdo no ar é a biblioteca de Python pdfplumber para analisar um lote inteiro de PDFs - procura e soma ocorrências de reclamações em documentos do ICE (imigração e fiscalização aduaneira) dos EUA, normalmente violações contra imigrantes que são detidos. Foi feito por Dan Keemahill, que é desenvolvedor da Gannett and the Austin American-Statesman.
Não é apenas sobre tecnologia
Quem pensa que jornalismo de dados é apenas números, códigos e estatísticas, pensou errado. Muitos painéis abordaram toda a organização necessária para fazer uma boa investigação baseada em dados. Ser cético sobre as informações, checar análises, organizar equipes, enfim: algo inerente a qualquer atividade jornalística.
Este foi o ponto central de Editing the data story (Editando a história de dados), de Maud Beelman, editora executiva do Howard Center for Investigative Journalism at Arizona State University's Walter Cronkite School of Journalism, e Jennifer LaFleur, data editor do The Investigative Reporting Workshop e professora na American University.
“Você precisa ter uma espécie de diário de dados para registrar todos os passos de uma investigação de dados. Isso permite que ela seja verificável e replicável. E sempre cheque a informação com experts de diferentes lados da questão que aborda”, orienta Maud.
As duas são editoras experientes e premiadas em investigações orientadas a dados. Porém, apontam que sempre existirão áreas de investigação no jornalismo de dados que você, em algum momento, não vai dominar a tecnologia e precisará trabalhar com parceiros. Mas, como editor ou responsável por uma investigação, precisará também sempre seguir padrões rígidos de qualidade se quiser um resultado de interesse público.
“Há uma lista de boas práticas, às vezes simples, mas que não podem faltar, como ter clareza da origem dos dados, como foram limpos, se a ferramenta utilizada foi a correta”, diz Jennifer.
Outro ponto importante no jornalismo de dados de alta qualidade de hoje no mundo é a ausência de fronteiras para se obter informações ou a maior facilidade para criar parcerias. No painel Finding and researching international connection (Localizando e pesquisando conexões internacionais), a jornalista freelancer inglesa Leila Haddou, o alemão Friedrich Lindenberg, diretor da equipe de dados da OCCRP (projeto mundial de investigações sobre crime organizado e corrupção), e a jornalista investigativa americana do The Intercept Margot Williams mostraram como fazem isso.
“Ter equipes com diversidade e buscar colaborações bem amplas foi o caminho inicial de muitos trabalhos premiados recentes. Hoje, há organizações mundiais e regionais de jornalistas que facilitam isso, bem como ferramentas ótimas de tradução para entender e trabalhar com dados de vários locais do mundo”, disse Margot.
Já Leila mostrou como encontrou um alto funcionário de uma grande ONG inglesa de caridade, a Oxfam, que foi acusado de um escândalo sexual e extorsão, mas que não foi devidamente punido nem investigado. “Encontramos ele recolocado em outro cargo importante, em Bangladesh, vivendo normalmente. Ele simplesmente estava na lista de usuários do Skype, com seu nome e foto. Depois checamos e era ele mesmo”, conta.
O trabalho foi ainda complementado com o acesso às leis locais de acesso à informação — uma fonte muito grande de investigações, mas que primeiro você precisa ter parceiros no local e entender a legislação regional para fazer os pedidos.
Sobre o trabalho da OCCRP, Lindenberg destacou o projeto Aleph, que teve a colaboração de diversos parceiros em diferentes países para criar um arquivo global sobre lavagem de dinheiro. “Tivemos muitos desafios, como arquivos com diversos formatos, o cruzamento de dados e criar análises que pudessem ser assimiladas. Isso demandou muita tecnologia, mas igualmente só deu certo porque trabalhamos em parcerias para entender dados tão diferentes e de uma forma aberta, “open source”, lembra.
Mas, se você quiser, é altamente avançado também
Agora imagine fazer uma investigação baseada no espectro de frequências de rádio. Ou criar um site inteiro gratuito com a história de uma investigação de homicídios com gráficos e mapas apenas com um editor de texto. Ou como capturar, entender e analisar os temas, sentimentos e complexidade do uso do Twitter de @realDonaldTrump?
Ben Welsh, editor do Data and Graphics Department do jornal Los Angeles Times, é um dos autores do segundo trabalho acima e defende que, apesar de serem projetos complexos, são acessíveis se você estudar e seguir o passo a passo. “Você pode ir muito além, criar novas possibilidades de investigação e materiais diferentes para o leitor, e a maioria são coisas de código aberto, gratuito. Dá trabalho? Sim. Mas fazemos porque gostamos, porque somos nerds”, brinca.
O que ele e Elbert Wang, graphics reporter no The Wall Street Journal, mostraram foi como o LA Times criou uma reportagem gráfica interativa sem depender de todas as fases do desenvolvimento de um site — os próprios jornalistas fazem isso. Veículos como Los Angeles Times, Dallas Morning, Seattle Times, NPR e Politico já criaram esses sistemas personalizados para publicação de páginas.
Para isso, usam o Node.js, que permite criar frameworks em JavaScript para criar e personalizar sites e administrar dados; o Bootstrap, que fornece um kit ready-to-use de ferramentas para sites, e as poderosas bibliotecas do JavaScript D3.js (visualização de dados) e Leaflet (mapas).
Já o trabalho sobre frequências de rádio foi apresentado por Jon Keegan, jornalista de dados investigativo da The Markup. Antes do The Markup, ele era pesquisador sênior do Tow Center for Digital Journalism, na Columbia University e no The Wall Street Journal.
“Sempre que encontro uma nova tecnologia interessante — geralmente uma que acaba de se tornar muito barata e disponível — fico muito empolgado com as possibilidades e procuro maneiras de usá-la no meu trabalho. Para mim, esse foi o caso da impressão e scanners 3D, câmeras térmicas baratas e rádio definido por software. Estou tentando incutir em todos vocês essa idéia, procurando maneiras novas e incomuns de procurar idéias de histórias. Às vezes, por trás dos usos óbvios, existem maneiras criativas de usar a tecnologia para contar histórias”, relatou.
Ele contou que a fonte para essa investigação foi seu pai, Larry Keegan. "Ele tem 91 anos, é engenheiro elétrico, piloto, poeta, meteorologista e operador de rádio HAM (WA1PII), entre muitas outras coisas", contou. Keegan filho explicou que o espectro radioelétrico é um ativo nacional crucial, invisível e pouco conhecido. Estamos cercados por dispositivos que usam o espectro de rádio e ele está alimentando nosso mundo sem fio.
Jon tem se dedicado a estudar este assunto há anos e incentivado outros jornalistas a usarem isso. Por exemplo, o Los Angeles Times reconstruiu uma trajetória de voo detalhada do helicóptero que caiu em Calabasas em 26.jan.2020, carregando Kobe Bryant, a filha dele e sete outras pessoas. Apenas dois dias após o acidente, esta peça foi publicada usando dados ADS-B (tecnologia de vigilância cooperativa para rastreamento de aviões) do Flightradar24 (portal de dados de voos). Eles conseguiram traçar um caminho no espaço 3D para ajudar a entender melhor exatamente como esse acidente se desenrolou.
Ou o caso da ProPublica que colaborou com o Gizmodo para examinar o espectro de rádio em torno do resort Mar-a-Lago do presidente Trump, na Flórida. Usando uma antena externa direcionada, eles foram capazes de inspecionar a rede Wi-Fi do resort e encontraram uma segurança fraca e vários dispositivos de rede não seguros que poderiam ser comprometidos e usados para vigilância por adversários ou hackers maliciosos.
Também há o projeto Dictator Alert, que rastreia voos de aeronaves que pertencem a regimes autoritários.
Marc DaCosta, co-fundador da Enigma, fez muitos projetos interessantes relacionados ao jornalismo usando SDR (Rádio Definido por Software, um sistema de radiocomunicação onde os componentes tipicamente implementados em hardware são implementadas em software, utilizando um computador pessoal ou outros dispositivos de computação embutido) e código.
Como a infraestrutura de vigilância que estava sendo implantada na fronteira dos EUA com o México. Usando o banco de dados de licenças da FCC (Federal Communications Commission) publicamente disponível, ele examinou as licenças concedidas pelo Sistema de Licenças Experimentais da FCC, que permite o uso experimental de transmissores para pesquisa e desenvolvimento. Puxar essas licenças experimentais ao longo do caminho da fronteira produziu uma lista de fornecedores de segurança que implantavam uma interessante variedade de ferramentas experimentais de vigilância por rádio.
E o último trabalho sobre o Twitter de @realDonaldTrump foi apresentado no NICAR por Peter Aldhous, que também já fez pautas sobre aeronaves de vigilância e aviões espiões, que ajudaram a capturar El Chapo. Mas, no NICAR deste ano, ele mostrou como analisar os tweets do presidente norte-americano Donald Trump, coletados no projeto Trump Twitter Archive.
Com a linguagem R e sua biblioteca tidytext ele consegue, por exemplo, ver rapidamente os dispositivos e plataformas usados para twittar, remover as chamadas stop words (palavras de conexão numa língua, como "que", "a", que têm importância gramatical, mas com importância menor para análises de valor, sentimento), listar e ordenar as palavras mais usadas sozinhas e em pares, fazer uma análise de sentimentos dos tweets e listar e ordenar as contas de Twitter mais marcadas por ele.
Aldhous, que é repórter do departamento de ciências do BuzzFeed News, com sede em San Francisco, também mostrou como analisar discursos, como o Estado da União, que tradicionalmente os presidentes americanos fazem. Ele mostra como, desde 1800, o tema dos discursos endereçados a partidos específicos foi mudando.
O mundo em destaque
Outro destaque foi o painel da jornalista argentina, gerente de projetos de jornalismo de dados em La Nación, e de John Bones, diretor administrativo da SKUP, a Fundação Norueguesa para Relatórios Investigativos. Foi apresentado um grande apanhado do melhor em jornalismo de dados no mundo no último ano ou período recente.
Já o "Funes”, do Ojo Público do Peru, que criou um algoritmo que identifica situações de risco de corrupção de contratos públicos no país. Também do Brasil foram apontados o projeto "Fogo Cruzado”, uma plataforma colaborativa de dados abertos sobre violência armada no Rio de Janeiro e Recife, e o "Arsenal Global" do The Intercept Brasil, sobre como os dados de munições contam histórias após tiroteios no Rio de Janeiro.
Do México o destaque foi “Zonas de silêncio”, que utilizou 14 anos de dados para medir o silêncio de jornalistas, inteligência artificial para quantificar e visualizar a cobertura de notícias e analisar as lacunas na cobertura por zona em todo o país, e criou uma fórmula para ver a evolução desse fenômeno ao longo do tempo. Foi mostrado um trabalho da rede do Qatar Al Jazeera, "Salvando o Nilo", que traz uma análise com cenários, dados e evidências científicas sobre o impacto de grandes barragens no rio Nilo.
Philip Meyer Award
Tradicionalmente, o NICAR também apresenta o prêmio Philip Meyer Journalism Award, que reconhece o melhor jornalismo realizado usando métodos empíricos. O grande vencedor deste ano foi “Hidden Injustice”, da Reuters.
Comentário dos juízes do prêmio: “Por quase duas décadas, os tribunais civis federais, sem justificativa suficiente, selaram evidências que detalhavam o papel das empresas farmacêuticas na epidemia de opióides, segundo uma investigação inovadora da Reuters. A Reuters combinou reportagens no local e histórias convincentes com métodos de classificação estatística para quantificar o problema em todo o país. A abordagem da equipe mudou a história para além de relatórios anedóticos [descrição incompleta do histórico médico e do tratamento de um ou mais pacientes] para estabelecer um vínculo entre as evidências ocultas e os danos à saúde e segurança pública.”
“A equipe da Reuters desenvolveu metodologias usando aprendizado de máquina e processamento de linguagem natural para identificar, classificar e quantificar casos com registros judiciais selados que podem ser replicados por outras equipes de jornalismo de dados. A Reuters analisou dados de Westlaw [serviço de pesquisa jurídica] de 3,2 milhões de ações civis federais movidas entre 2006 e 2016. No entanto, a maior contribuição do projeto é a base sólida que dá a qualquer jornalista que cobre um caso para pressionar por maior transparência e responsabilidade judicial.”
Em segundo lugar ficou “Ahead of the Fire”, do The Arizona Republic e USA TODAY Network. Segundo a análise dos juízes: “O incêndio mortal em Paradise, Califórnia, em 2018, levou a perguntas sobre outras comunidades no Oeste que também poderiam estar em perigo. A análise começou com um mergulho profundo nos dados do Serviço Florestal dos EUA. Mas então a equipe deu um passo adiante. Usando dados do censo que mediram as rotas de evacuação de cada comunidade, a idade de seus moradores, a parcela de pessoas com deficiência, a porcentagem de residências móveis e a participação no sistema de alerta celular de emergência, os jornalistas identificaram 526 pequenas comunidades em 11 estados que enfrentavam um incêndio potencial maior que Paradise.”
“Os gráficos sofisticados e as fotos atraentes ajudaram a contar uma história emocionante que pode ser replicada em muitas redações, pensando em maneiras de levar a ameaça da mudança climática para o público.”
Em terceiro lugar, o destaque foi para “Forced Out: Measuring the scale of the conflict in South Sudan”, feito por Al Jazeera, com o apoio do Pulitzer Center on Crisis Reporting, African Defence Review, e Code for Africa. Segundo os jurados: “O ‘Forced Out’ usou uma pesquisa inovadora em telefonia móvel para entrevistar milhares de pessoas deslocadas no Sudão do Sul e descobriu que mais de 40% relataram ter sido forçados a sair de suas terras ou de suas casas desde dezembro de 2013, quase a metade nas mãos de soldados do governo. É um excelente exemplo de um determinado grupo de repórteres que usa métodos de ciências sociais para chegar às causas profundas de uma crise de refugiados, mesmo com liberdade de imprensa severamente limitada, possível interferência do governo e uma população assustada.”
E a menção honrosa foi para “Heat and Health in American Cities”, da NPR, e para “Code Red: Baltimore’s Climate Divide”, feito por The Howard Center For Investigative Journalism e Capital News Service at the University Of Maryland, com apoio do WMAR TV e Wide Angle Youth Media.
Segundo os jurados: “‘Heat and Health in American Cities’ foi uma colaboração impressionante entre jornalistas profissionais da National Public Radio e estudantes da Universidade de Maryland. Encontrou uma ligação entre a pobreza e as áreas mais quentes das cidades. O projeto foi desenvolvido com base no trabalho realizado por jornalistas da Califórnia e Nova York e reuniu dados do censo e do clima, imagens de satélite e sensores colocados em residências para mostrar a forte relação entre calor e renda. A equipe também mostrou que o calor extremo pode levar a "conseqüências mortais à saúde" em Baltimore, examinando altas taxas de chamadas de emergência e taxas de internação hospitalar. Os juízes ficaram particularmente impressionados com as contribuições dos estudantes para este projeto.”
(*) Foto: Bob Graham Center for Public Service.