terça-feira, 21 de novembro de 2017

Wikipédia trava batalha virtual contra as ‘fake news’


Desde a fundação a Wikipédia teve que lidar com a correção das informações - Lane Hartwell / WIKIMEDIA COMMONS

Sérgio Matsuura - O Globo


Num ambiente cada vez mais polarizado, a disputa pela difusão de informações se acirra. A eleição americana do ano passado e a saída do Reino Unido da União Europeia demonstraram o poder da circulação de boatos, as chamadas “fake news”, ou notícias falsas. Essa nova batalha, disputada sobretudo em redes sociais como Facebook, Twitter e WhatsApp, também afeta a Wikipédia. Mas acostumada desde a fundação a ter que provar sua credibilidade, a enciclopédia desenvolveu ferramentas para identificar e corrigir rapidamente verbetes incorretos, o que é surpreendente para uma plataforma aberta. E essa experiência pode ser replicada em outros serviços.

A Wikipédia, de fato, se transformou em um campo de batalha contra as notícias falsas. 

Quem afirma é Aaron Halfaker, pesquisador da Universidade de Minnesota e da Fundação Wikimedia. Ele esteve no Rio de Janeiro na última semana para participar do I Congresso Científico Internacional da Wikipédia no Brasil.

Por ser aberta, qualquer pessoa no mundo com acesso à internet pode criar e editar verbetes na enciclopédia on-line. A cada minuto são feitas mais de dez edições nos mais de 5 milhões de artigos disponíveis. E essa característica, que aparentemente dificulta o controle de qualidade das informações publicadas, está no centro da estratégia de combate às notícias falsas. Se todos podem criar, todos podem corrigir.

— Na Wikipédia todo mundo é convidado a participar do processo de revisão, o que o torna mais ágil e eficiente — explica Halfaker.

Isso não significa que alterações mal intencionadas não aconteçam. Em 2013, por exemplo, os verbetes dos jornalistas Míriam Leitão e Carlos Alberto Sardenberg foram editados para atacar sua credibilidade.

Halfaker explica que, para um artigo ser criado na Wikipédia, ele deve seguir padrões de qualidade que incluem citação de fonte confiável, como artigos científicos, livros e reportagens. Apesar de a edição ser aberta a todos, os verbetes mais polêmicos são protegidos e só podem ser mexidos por usuários registrados. Em casos extremos, por editores experientes. Para alterar a entrada sobre Donald Trump, por exemplo, são exigidos um mínimo de 30 dias de registro e mais de 500 edições.

EDITORES NOVATOS ACABAM DESISTINDO

Os grupos de trabalho por assunto fortalecem o controle de qualidade. Cada verbete é classificado segundo sua área de conhecimento, e cada área possui grupos de voluntários especializados, com boas noções sobre as referências do campo. A comunidade da Wikipédia também determina quais fontes são confiáveis, com uma lista de referências proibidas, incluindo até mesmo grandes veículos de comunicação.

— Geralmente, os veículos de imprensa são aceitos como fonte, mas a Wikipédia da língua inglesa decidiu excluir o “Daily Mail” — conta Halfaker. — A comunidade concluiu que o veículo publica muita especulação e reportagens não checadas.

As regras são tão rígidas que muitos editores iniciantes desistem de participar. Hoje são 32 milhões de usuários registrados, mas apenas 134 mil fizeram alguma edição nos últimos 30 dias.

Para uma enciclopédia on-line, o modelo pode funcionar, mas para um negócio como o Facebook, que lucra pela participação das pessoas, nem tanto. Ainda assim, algumas dessas estratégias estão sendo aproveitadas pela rede social. No fim do ano passado, a empresa anunciou parceria com agências de checagem e simplificou a ferramenta para denúncias de notícias falsas. Em outubro, iniciou testes com um botão que fornece contexto sobre os links compartilhados, com informações sobre a fonte e notícias relacionadas.

— Se o leitor encontrar no Facebook uma notícia alinhada com a sua visão política, talvez a compartilhe imediatamente, sem qualquer checagem. O que as redes sociais poderiam fazer é criar um mecanismo para filtrar a boa informação com a participação dos próprios usuários — sugere Halfaker.

Temas polêmicos costumam atrair mais edições. Um estudo realizado por pesquisadores da Universidade de Buffalo comparou o número de alterações em verbetes de três temas científicos que envolviam discórdias políticas — chuva ácida, evolução e aquecimento global — com quatro tópicos não controversos — modelo padrão em Física, heliocentrismo, relatividade geral e deriva continental. Os resultados mostraram que o artigo sobre aquecimento global recebe entre duas e três edições diárias, enquanto o verbete sobre modelo padrão é alterado com intervalos de semanas.

— São pessoas criando conteúdo, então o volume de edições acompanha a repercussão na mídia e nas redes sociais — aponta Rodrigo Padula, coordenador geral do congresso científico. — Quanto maior a polêmica, maior a cobertura da imprensa, o que gera mais fontes e referências para o verbete.

Os dois pesquisadores concordam que existem pessoas com diferentes visões políticas editando a enciclopédia, mas a busca, defendem, é sempre pela neutralidade.

— Pelas regras de publicação, o conteúdo tem que ser imparcial e baseado em fontes com credibilidade e notoriedade. A ideia é que um artigo tenha referências, com opiniões diversas, de forma que o conteúdo sirva para informar, não para moldar a opinião — afirma Padula.

Para Halfaker, o modelo da Wikipédia é até mais eficiente que o das enciclopédias tradicionais para evitar que os editores imponham nos verbetes suas visões políticas. No passado, os artigos eram escritos por pensadores com notório saber, mas não existiam processos de revisão.

— Não acredito que exista a dominância de uma perspectiva política na Wikipédia. O que existe é um espaço para embates políticos. Nessas discussões, é vergonhoso alguém acusar que uma informação está errada por causa da visão política — disse Halfaker.