Na página do Snopes, um dos primeiros sites americanos de verificação de factos (fact-checking), Brooke Binkowski é descrita como "uma jornalista de investigação premiada" com um longo currículo: "Escreveu e produziu para a CNN, CBS, NPR, Globe and Mail, AJ+, Christian Science Monitor e vários outros", prossegue o curto texto antes de acrescentar que Brooke é, além disso, "uma ávida esgrimista e uma entusiasta do acordeão"..O bom humor desta apresentação é uma relíquia do passado. Brooke saiu do Snopes, onde foi editora executiva, em julho do ano passado. Uma das razões para a sua saída foi o acordo estabelecido entre o Snopes e o Facebook para a verificação do conteúdo da rede social. O Snopes fazia parte, com mais de 40 sites no mundo, da tentativa, anunciada pelo Facebook, de lidar com a desinformação publicada pelos seus mais de dois mil milhões de utilizadores. Brooke era a responsável editorial pela ligação entre a sua equipa e o Facebook. E as coisas começaram a correr mal...."Ficou muito claro para mim que o Facebook não estava realmente interessado em acabar com a crise de desinformação, eles estavam interessados em parecer bem", explica-nos Brooke Binkowski numa entrevista, por videoconferência. "Parecia que fazíamos parte de uma manobra de relações públicas.".Brooke garante que avisou os donos do site que editava dessa dificuldade, desde 2017. Começou por lhes pedir que não aceitassem ser pagos para trabalhar "para" o Facebook, antes que trabalhassem "com" a rede social no combate às fake news. Não conseguiu. O Snopes assinou um contrato e recebeu centenas de milhares de dólares para integrar a rede de verificadores externos com que o Facebook diz estar a combater a difusão de mentiras intencionais. O problema, explica Brooke, é a relação de poder que esse contrato estabeleceu. Os verificadores de factos passaram a ser vistos como "empregados" do Facebook..O poder do Facebook."Eles empurravam-nos para certas histórias e afastavam-nos de outras", acusa a jornalista. A gota de água aconteceu quando um dos seus repórteres procurou uma reação do Facebook a uma acusação de que estaria a permitir campanhas de desinformação. A resposta da rede social foi dura. "Disseram-lhe: 'Talvez precises de te recompor e começar a fazer as verificações de que precisamos mais depressa.' E eu fiquei muito chateada. Eles não podem intimidar os meus repórteres! Pedi-lhes uma reunião e eles não aceitaram.".Quando Brooke Binkowski acusa o Facebook de "afastar" jornalistas de algumas histórias dá exemplos. Ela própria sugeriu verificar as muitas "notícias" falsas sobre os membros da comunidade rohingya que tentavam obter asilo nos EUA, dada a perseguição de que são alvo em Myanmar. "Eu estava no lugar certo, na hora certa e pensei que podia ajudar os rohingyas. Propus ao Facebook, mas eles ignoram-me completamente. Na altura pensei que era precisamente para isso que nós trabalhávamos com o Facebook... Mas eles nem sequer responderam.".Brooke Binkowski dá outro exemplo - que foi revelado por uma investigação do The New York Times: depois de ter criticado a política do Facebook sobre desinformação, George Soros foi alvo de uma "investigação" solicitada pela COO da rede, Sheryl Sandberg. A número dois do Facebook contratou uma empresa (liderada por um especialista em campanhas do partido Republicano), a Definers, para lançar uma operação de "relações públicas" anti-Soros..Na altura, Binkowski não conhecia o envolvimento do Facebook na campanha anti-Soros, mas apercebeu-se de que "havia muitas histórias antissemitas" a circular na rede social "como resultado disso". Nas suas listas de possíveis fake news a verificar, enviadas pelo Facebook para o Snopes, "nunca apareceram estas histórias antissemitas". A jornalista não tem dúvidas: "Estavam a tentar espalhar exatamente as notícias que diziam que queriam combater.".O Facebook reconheceu o erro e despediu a empresa Definers, depois da investigação do The New York Times. Assumiu, também, num comunicado, ter investigado a relação financeira de Soros com a empresa. "Soros é um investidor proeminente e investigámos os seus investimentos e atividades comerciais relacionadas com o Facebook."."Não fizeram nada do que recomendei".Brooke Binkowski lembra, a propósito deste caso, que deu várias sugestões ao Facebook para uma estratégia de combate à desinformação. "Mas o Facebook não fez nada do que eu recomendei..." Para a jornalista "é muito claro qual é o padrão dos grupos de desinformação em torno das eleições". "Temos fraturas na sociedade, que depois a desinformação acentua, e põe muito sal e muito ácido nessas feridas. Boa parte do problema é racial. Uma grande parte é a misoginia. É muito fácil pôr as pessoas a lutar por estas questões, onde quer que estejam no mundo, basta adaptar um pouco as coisas. O Kremlin é muito bom nisto, mas também o são muitos outros. Não me interessa quem está por trás, mas sim como podemos lutar contra isso.".Por isso, sugeriu várias estratégias: "Eu recomendei transparência quanto aos algoritmos. Recomendei a criação de um fundo para financiar de forma independente o jornalismo: uma parte dos lucros das plataformas devia financiar as redações", sugere. Porque "o verdadeiro problema é a degradação do jornalismo. Continuo a achar que a desinformação não seria um problema tão sério se tivéssemos uma indústria jornalística funcional e saudável.".Em julho do ano passado, Brooke Binkovski saiu do Snopes. Trabalha agora num outro site de verificação, o Truth or Fiction. Em fevereiro deste ano o Snopes deixou de trabalhar para o Facebook..Muitas destas críticas quanto à utilidade dos fact-checkers, contratados pelo Facebook para combater a desinformação, já são debatidas nos EUA e na Europa. Quando entrevistámos a responsável do Facebook pela política anti-fake news, Tessa Lyons-Laing, fizemos-lhe a pergunta. Laing relativizou o problema. "Não dependemos apenas de verificadores de factos. Porque não há verificadores de factos em todos os países do mundo que cumpram a as regras da International Fact-Checking Network. Por outro lado, se dependêssemos apenas disso estaríamos sempre a correr atrás do problema, porque é sempre mais fácil criar histórias falsas do que desmascará-las.".O que é apagado e o que não é.Por isso, o Facebook garante que a inteligência artificial que usa nas suas páginas é parte da resposta. Até porque não faz parte da política da empresa apagar as mentiras identificadas pelos verificadores de factos..Só são eliminados da rede social três tipos de conteúdos: os que apelam à violência, os que tentam limitar os direitos eleitorais e aqueles que violam os "padrões da comunidade". No primeiro caso, trata-se de uma regra clara - suprimir incitamentos a atos violentos concretos - embora persistam muitas críticas quanto à capacidade do Facebook de a poder cumprir (com vários exemplos de casos que passaram essa fronteira na Índia, no Sri Lanka, em Myanmar, nas Filipinas, entre outros). No caso dos direitos eleitorais, o Facebook apenas se compromete a eliminar, desde as eleições intercalares americanas de 2018, informação falsa sobre recenseamento ou procedimentos aplicáveis aos eleitores. A política aplicável à "comunidade" de utilizadores é também bastante limitada..Tudo o resto - mentiras sobre políticos, discurso racista, falsas "informações" de saúde, por exemplo - é entregue aos verificadores de factos para uma análise mais pormenorizada. Mas nada do que seja decidido nessa fase será apagado da rede..Os fact-checkers podem decidir uma de quatro coisas. Ou o conteúdo não tem problemas (e nada acontece), ou então é falso, ou é parcialmente falso, ou tem um título enganador. Em qualquer um destes casos, o conteúdo permanece na rede. Dependendo da análise, a penalização mais alta aplicável pelo Facebook a estes casos é uma diminuição do rating do conteúdo (texto, vídeo ou imagem), ou do seu autor, no newsfeed, a página inicial que cada um dos utilizadores vê quando acede à rede social..Ou seja, uma mentira flagrante, como as várias que surgiram após o incêndio na Catedral de Notre-Dame (de que foi um atentado, por exemplo) não será apagada do Facebook. No máximo pode ser mal avaliada e com isso ser menos destacada pelo algoritmo que escolhe a relevância dos assuntos..O objetivo, explica Lyons-Laing não é decidir se a desinformação é ou não publicável, é antes "reduzir a sua distribuição". A pergunta que ainda não tem resposta é: será suficiente?.*Com Elisa Simantke, Harald Schumann, Ingeborg Eliassen, Juliet Ferguson, Leila Miñano, Nico Schmidt, Nikolas Leontopoulos, Maria Maggiore, Wojciech Ciesla e Daphné Dupont-Nivet (Investico).Investigate Europe é um projeto iniciado em setembro de 2016 que junta nove jornalistas de oito países europeus..Este trabalho foi financiado em Portugal pela Fundação Calouste Gulbenkian e na Europa pelas fundações Cariplo, Milão, Stiftung Hübner und Kennedy, Kassel, Fritt Ord, Oslo, Rudolf Augstein-Stiftung, Hamburgo, GLS, Alemanha, e Open Society Initiative for Europe, Barcelona.