Tessa Lyons-Laing é uma jovem executiva a quem foi atribuída uma responsabilidade mundial. Formada em Harvard, ex-consultora da McKinsey, é a gestora do Facebook, responsável pela luta contra a desinformação e o discurso de ódio. Vive em São Francisco e trabalha nos escritórios de Menlo Park, na Califórnia, da maior rede social do mundo, com mais de dois mil milhões de utilizadores..A entrevista que deu ao consórcio de jornalistas Investigate Europe, que o DN integra, durou, exatamente, 30 minutos. Foi feita no início de abril, por videoconferência. Lyons-Laing chegou uns minutos atrasada, acompanhada por uma colaboradora nos EUA, e outra em Berlim, na Alemanha. Sentou-se numa pequena sala, sem janelas, em que o único objeto visível é um caixote do lixo de plástico, cinzento, o que dá um toque de pré-modernidade a uma conversa centrada em argumentos futuristas: inteligência artificial, previsão dos gostos políticos dos cidadãos, entre outros..A entrevista decorreu antes do atentado no Sri Lanka, onde as autoridades decidiram bloquear o Facebook (e outras redes sociais) com o argumento de que estavam a ser difundidas mentiras e desinformação que prejudicavam as investigações..Mas esse era o ponto central desta entrevista: como o Facebook encara a difusão de mentiras, discurso de ódio. E o que está a fazer para não se tornar no "gangster digital" que o Parlamento britânico descreveu num relatório aprovado em 2019. A responsável explica-nos como funciona o maravilhoso mundo dos algoritmos, que escolhem o que vemos, preveem o que queremos ver e bloqueiam o que não devemos saber.."Sabemos que temos a responsabilidade de proteger as pessoas que utilizam os nossos produtos, e que essa responsabilidade é especialmente importante no período que antecede as eleições e outros períodos em que a informação é particularmente relevante para as comunidades em todo o mundo", começa por nos garantir Lyons-Laing, que fala depressa e com um discurso organizado.."Redimensionámos as nossas equipas que combatem os abusos e garantem a segurança: de 10 000 para 20 000 e serão 30 000 no final deste ano. Mas também com a tecnologia. Porque sabemos que com 2 mil milhões de pessoas que usam os nossos produtos, precisamos de soluções tecnológicas para potenciar o nosso trabalho. Removemos qualquer coisa que viole os padrões da nossa comunidade. Isso inclui conteúdo como discurso de ódio, mas também relatos falsos, ou comportamento coordenado não autêntico. Usamos o algoritmo de classificação de notícias para minimizar a distribuição, o número de pessoas que veem, o conteúdo que não viola os padrões da nossa comunidade, mas que é problemático de alguma outra forma, como desinformação e notícias falsas. Trabalhamos para dar às pessoas mais contexto sobre o que estão a ver e por quê.".Tudo isso parece deixar o Facebook satisfeito, à espera de mais provas académicas sobre o alcance da desinformação. Só nos últimos três meses, a rede fechou quase 800 milhões de páginas "falsas", garante. Como explica Lyons-Laing, persistem as reservas sobre a ideia de que é necessário regular, criar leis sobre atividade desta plataforma global..A Comissão Europeia continua a queixar-se de que ainda falta muito do que foi acordado com o código de conduta das plataformas, e que mais poderia ser feito: sobre bots ou sobre notícias falsas. Por que continua a haver queixas dos responsáveis da União Europeia? Este é um debate contraditório, como qualquer um no domínio da segurança, onde haverá sempre mais para fazer. É por isso que é importante que estejamos envolvidos neste tipo de diálogo. É importante que tenhamos mudado a forma como as nossas equipas trabalham, que tenhamos transferido recursos, e lançado investimentos, que não vejamos isto como um esforço de curto prazo, mas sim como uma nova forma de operar. Especificamente, em relação ao código de desinformação e às conversas que tivemos: em janeiro estávamos muito focados em partilhar o progresso que tínhamos feito e em implementar o código, e particularmente em torno do processo de autorização de anúncios políticos. Fizemos progressos significativos e estabelecemos realmente uma nova norma para a nossa indústria, fazendo muito mais para permitir a transparência em todos os domínios, não só para a publicidade de figuras políticas e campanhas, mas também para a publicidade normal, que é obviamente muito mais complexa de implementar. Sobre a questão da transparência: Sei o que o Comissário King e todos nós queremos, é poder medir com precisão a dimensão destes problemas e, depois, refletir honestamente o nosso progresso na luta contra eles. E uma coisa que é realmente importante reconhecer é como é difícil medir algo quando as pessoas não estão alinhadas com a definição. Quando se trata de notícias falsas, por exemplo, não há uma definição consensual do que significa ser notícia falsa ou desinformação. E não há um único consenso sobre a definição. Por isso, acreditamos que temos a obrigação de partilhar dados mais transparentes com académicos e investigadores, a fim de chegar a medições mais sólidas e honestas. E tomámos medidas para compartilhar mais dados do que nunca, de forma protetora da privacidade, num programa chamado Social Science One, que permitirá que académicos de todo o mundo tenham acesso a mais de um terabyte de dados sobre conteúdos no Facebook e o seu alcance, para que possam criar suas próprias métricas para alguns desses problemas e mostrar o seu progresso ao longo do tempo. Já vimos quatro estudos independentes que podemos partilhar convosco, que usaram as suas próprias metodologias para medir a prevalência e a tendência de notícias falsas especificamente no Facebook ao longo do tempo. E o que todos encontraram foi que, nos últimos dois anos, fizemos progressos significativos. Do lado da transparência, haverá sempre mais a fazer. Mas eu só quero que todos nós nos lembremos de como é importante basearmo-nos numa métrica robusta, certa, e não apenas em pontos de dados pontuais que, por si só, não mostram o quadro completo..Mencionou o Social Science One. Pelas leituras que fizemos, mas também de acordo com as nossas fontes, parece que o projeto ainda está a ser montado. Há também investigadores como, por exemplo, a Fundação Mozilla e outros académicos que dizem que esta iniciativa de transparência de anúncios não é suficientemente boa - precisa de ser mais aberta, mais transparente, que o Facebook deve abrir a API publicamente. Como responde a isso? Mais uma vez, penso que fizemos progressos significativos e que haverá mais a fazer, em particular no trabalho com investigadores externos. Não há um modelo de tamanho único para todos. Social Science One é um modelo crítico para atingirmos o nível de transparência que vamos oferecer. Mas foi concebido para o tipo de pesquisa que leva muito tempo aos académicos. Eu, como gestora, atuo num calendário de semanas ou meses, os académicos atuam num calendário mais longo. Mas é importante que eles sejam capazes de fazer esse trabalho de forma sólida para que possamos obter o tipo certo de métricas sofisticadas que precisamos ao longo do tempo. Não é a única forma de nos envolvermos com parceiros externos ou mesmo com a comunidade académica, apenas um dos muitos exemplos. Mas em algumas destas áreas existe uma tensão entre a transparência dos dados e a privacidade. Assim como há uma tensão em muito do trabalho que fazemos entre liberdade de expressão e segurança e autenticidade. Vamos continuar a lidar com essas tensões da forma mais aberta possível, a receber feedback e a continuar a investir, para que possamos, coletivamente, encontrar soluções mais sólidas. Porque sabemos que somos apenas uma empresa privada. E há tantas outras partes interessadas que precisam de fazer parte de qualquer solução para proteger as pessoas e as comunidades contra o abuso dos maus atores..Na sua introdução revelou que a estratégia do Facebook é, primeiro, retirar do site o conteúdo mau, mas se o conteúdo é considerado problemático, o Facebook não o retira, mas esconde-o e assim por diante. O que é sempre problemático para nós é saber como o Facebook decide se o conteúdo é bom ou mau, ou como decide sobre uma fonte de notícias específica, se é uma boa fonte ou uma fonte inaceitável. Como é que decide em termos de credibilidade? E quem decide? Dissemos com muita transparência, e o Mark [Zuckerber, CEO do Facebook] partilhou a carta dele recentemente: Não queremos ser, e não pensamos que uma empresa privada deva ser, quem determina que conteúdo é bom ou mau, que fontes de notícias são boas ou más para o mundo. Isso é realmente algo que tem de ser feito de uma forma muito mais abrangente. Permitam-me que fale sobre o que estamos a fazer hoje para clarificar e, depois, falar também sobre alguns dos aspetos que estamos a discutir. Hoje, as únicas coisas que removemos do Facebook são aquelas que violam os padrões da comunidade. Tornamos públicos os nossos padrões da comunidade, as diretrizes que são usadas para aplicá-las e os dados em torno delas. Quanto realmente é removido, e quanto disso é removido através de métodos de inteligência artificial, versus o que é reportado por humanos. No que se refere às medidas que tomamos para reduzir o conteúdo, a única fonte de que dispomos para determinar se algo é verdadeiro ou falso, são os verificadores de factos independentes com quem trabalhamos, 43 organizações em países de todo o mundo. E todos eles são certificados pela rede independente de verificação de fatos e atendem aos critérios e ao código dessa organização. Outras mudanças que fazemos no ranking de notícias são baseadas no feedback da nossa comunidade. Então, por exemplo, ouvimos da nossa comunidade que o clickbait é uma experiência muito má, e sabemos que o clickbait corresponde a muitos dos tipos de abusos e conteúdo problemático que vemos os maus atores a usar para tentar obter uma distribuição mais ampla. Assim, com base no feedback da nossa comunidade, desenvolvemos classificadores de inteligência artificial automática para identificar e reduzir a distribuição de clickbait. Para sermos transparentes com os editores, incluímos essa informação nas diretrizes, para que os bons atores e os bons editores saibam que o clickbait é algo que é penalizado no Facebook. Mas há mais trabalho a fazer aqui, e é por isso que Mark - e ele esteve na Europa em abril - está a falar sobre como temos responsabilidade, como uma sociedade e não apenas uma empresa privada, para participarmos no debate com vista a definir que conteúdos devem, ou não, ser permitidos online, e como devemos ser transparentes nas ações que tomamos no ranking noticioso..O ranking é a página inicial de cada um dos utilizadores. Como é definida? Há vários níveis de intervenção Por exemplo, há muitas queixas sobre propaganda russa, etc. Eu gostaria de entender como classificam as fontes de notícias, não apenas o conteúdo mau ou as notícias falsas. Deixe-me tirar um minuto para falar sobre como o ranking funciona e então tentarei responder mais diretamente à sua pergunta. A forma como o ranking de notícias funciona é através de um algoritmo. E o objetivo do algoritmo é mostrar às pessoas as mensagens que são mais relevantes ou significativas para elas. É personalizado, em quatro passos diferentes. O primeiro e mais importante passo é o inventário. As únicas coisas que podemos mostrar nos feeds de cada pessoa são posts das pessoas de que gosta, as páginas que seguiu, os grupos a que aderiu. Esse é o lado mais importante. O segundo passo são os sinais. Levamos em conta centenas de milhares de sinais diferentes, a maioria dos quais são personalizados. Coisas como, por exemplo, quem realmente publicou uma coisa. Se for um artigo noticioso que a Lauren [a colaboradora sentada ao lado de Tessa durante a entrevista] partilhou, como a Lauren e eu somos realmente amigas, então isso é um sinal mais forte para mim, enquanto que se me chegar um artigo que a mãe da Lauren partilhou, eu não conheço a mãe da Lauren tão bem, mesmo que sejamos amigas no Facebook, não nos relacionamos com tanta frequência, de modo que é um sinal menos forte para mim. A terceira categoria são as previsões. Fazemos algumas dezenas de previsões, e as previsões são principalmente pessoais como a probabilidade de alguém realmente comentar sobre isso ou a probabilidade de alguém realmente assistir ao vídeo. Isso são sinais de que o conteúdo pode ser significativo ou relevante para as pessoas. No final chegamos a uma pontuação de relevância. Essa é novamente pessoal para cada indivíduo, para cada post, de cada vez que se abre o feed de notícias, essa pontuação é que determina a ordem em que as histórias aparecem. Agora o que fazemos quando tomamos medidas de classificação adicionais para combater o abuso, os maus atores e o conteúdo problemático é essencialmente adicionar novos sinais e novas previsões que aumentam essa pontuação de relevância. Assim, um exemplo é o sinal atribuído pelos verificadores de factos independentes, mas nós também temos, como mencionou, outras abordagens. Fizemos muito investimento nos últimos dois anos para combater abusos, para combater notícias falsas, para proteger eleições, mas em paralelo também estamos a desenvolver produtos. Por exemplo, em janeiro do ano passado lançámos uma mudança para as interações sociais significativas, e isso não foi motivado por esse trabalho de integridade, foi motivado pelo feedback de nossa comunidade que queria ver mais conteúdo de amigos e familiares, e menos de páginas e fontes públicas, e por causa dessa mudança, todas as páginas sentiram um declínio - a quantidade relativa de conteúdo de fontes de conteúdo público em todo o painel diminuiu porque o conteúdo de amigos e familiares aumentou no newsfeed, mais uma vez com base no feedback das pessoas. Mas acho que isso fez com que as pessoas pensassem que éramos nós a tomar decisões sobre fontes de notícias específicas quando realmente era uma mudança de produto motivada pelos utilizadores..Uma das questões mais sensíveis, relacionadas com isso que diz, é a criação de "bolhas", "salas de eco", onde as pessoas recebem apenas a informação de que gostam, e as fontes que a dão. Gostaria de saber se o Facebook realmente tem algum interesse profundo em mudar o seu algoritmo para que haja um debate mais aberto e não apenas o mecanismo personalizado que descreveu, e pode realmente ser parte deste grande problema? Primeiro, quero fazer uma pausa no ponto das salas de eco. Há muita pesquisa que precisa de ser feita para se entender melhor esta questão, e achamos que é incrivelmente importante estudar e entender. No momento, a investigação sugere que as pessoas estão expostas a uma maior diversidade de perspetivas no Facebook do que fora do Facebook. E em parte porque as pessoas se relacionam com amigos e familiares que são mais diversos do que as pessoas com quem interagem no dia-a-dia. Isso permite que contactemos com fontes de notícias que não conheceríamos. Mas achamos que temos uma responsabilidade estamos a estudar o potencial das "bolhas". Queremos entender melhor a relação entre os nossos produtos e questões como a da polarização. Mas é realmente importante que todos nós entendamos que essas questões têm uma base sólida de pesquisa académica antes de fazermos mudanças que podem ter impactos imprevisíveis..Tais como? Deixem-me dar dois exemplos. As pessoas clicam em clickbait, mas se confiássemos apenas em sinais, pensaríamos que o clickbait era uma ótima experiência para as pessoas e algo que era bom e significativo. Mas sabemos, pela pesquisa, que as pessoas realmente não gostam dessa experiência e é por isso que construímos classificadores de inteligência artificial para prever e reduzir o clickbait. Outro exemplo é a desinformação, mesmo que as pessoas se liguem a muitas fontes que partilham informações erradas, nós tomamos medidas para reduzir a sua distribuição, trabalhamos com verificadores de factos independentes. E há certamente mais coisas que podemos fazer e continuaremos a fazer....Já mencionou a sua rede de verificadores de factos e gostaríamos de saber se o Facebook está satisfeito com a experiência. Muitos jornalistas, por exemplo, lançaram críticas sobre a relação entre o Facebook e as empresas de "fact-checking". Posso dizer categoricamente que não estou na equipe de relações públicas, sou uma gestora de produto, não sou avaliada com base nas manchetes, sou avaliada com base na prevalência de notícias falsas no Facebook. E eu é que dirijo o programa de verificação de factos. Então, posso prometer que, como gestora de produto, por mais que goste de falar com jornalistas, não estou motivada por manchetes e sim pela experiência que as pessoas têm no Facebook. Então eu não iria gastar tanto do meu tempo pessoal ou da minha equipa... Acho que é importante reconhecer que não há uma só bala de prata quando se trata de desinformação. Uma das melhores coisas que podemos fazer é remover as contas falsas. Outra são os investimentos que fizemos em pessoas e inteligência artificial para prever e remover contas falsas - e nós removemos nos passados três meses 754 milhões de contas falsas, e 99% dos casos foram detetados com o nosso sistema de inteligência artificial. Isso é fundamental na luta contra a desinformação, porque muitas vezes são as contas falsas que a semeiam ou espalham. Não dependemos apenas de verificadores de factos. Porque não há verificadores de factos em todos os países do mundo que cumpram a as regras da International Fact-Checking Network. Por outro lado, se dependêssemos disso estaríamos sempre a correr atrás do problema, porque é sempre mais fácil criar histórias falsas do que desmascará-las. Nós pedimos essas avaliações de verificadores de factos e aplicamo-las a todas as páginas e todos os domínios e todas as entidades que partilham o conteúdo falso para que possamos identificar que há um mau ator, com má reputação, que repetidamente partilha coisas classificadas como falsas, e com isso podermos reduzir a sua distribuição, para que não estejamos à espera para ver como a sua próxima história será partilhada..Como reage o Facebook à hipótese de se criar uma regulamentação da sua atividade da União Europeia? Não nos opomos à regulamentação. Em muitos aspetos, a carta de Mark foi um apelo para uma regulamentação cuidadosa. Primeiro, tem de ser eficaz. E uma das preocupações com a regulamentação será se esta for excessivamente onerosa de uma forma em que não sejamos capazes de fazer mudanças suficientemente rápidas para nos adaptarmos às táticas dos maus atores. Os maus atores não operam num ambiente regulado, eles identificam os passos que o mundo dá e são capazes de contorná-los. Temos de ser capazes de fazer isso, muito rapidamente. A minha equipa tem de mudar de estratégia muitas vezes ao dia, para identificar loops fechados que os maus atores estão a tentar explorar e, por isso, é importante que qualquer legislação seja consciente de como trabalha o nosso adversário, e de realmente ser eficaz. A segunda coisa é: a regulamentação tem de ser equilibrada. Existe uma tensão entre a liberdade de expressão e alguns dos outros princípios. Assim, qualquer regulamento teria de equilibrar esses diferentes valores, como hoje tentamos fazer. E a terceira coisa que eu acho que é importante dizer aqui é que a regulamentação tem que ter em conta a inovação. Somos uma grande empresa com muitos advogados, muitos gestores de produtos, muitos engenheiros, e se o RGPD [lei europeia de proteção de dados] foi um grande exemplo de como somos capazes de estar à altura dos novos códigos e dos novos regulamentos, e não apenas da UE. Mas temos de assegurar que as empresas que estão a começar ou as que, na Europa ou em qualquer outro lugar do mundo, estão a tentar envolver-se na tecnologia e construir produtos que são excelentes para as pessoas, que serão capazes de satisfazer as expectativas de qualquer quadro regulamentar. A última coisa que eu gostaria de dizer é que, tanto quanto nós acreditamos que há um lugar para a regulação, não acho que possamos esperar por isso. A regulamentação, como a pesquisa académica, leva tempo e eu acho que a transparência publicitária é um grande exemplo de como não esperámos pela regulamentação; tomámos medidas para fazer mais do que o necessário com base na responsabilidade que sentimos para com as pessoas da comunidade que servimos em todo o mundo. E vamos continuar a tomar medidas sobre a transparência dos anúncios, sobre notícias, notícias falsas, sobre outras formas de abuso relacionadas com as eleições e mais, antes de qualquer regulamento ser aprovado, porque isso é a responsabilidade que sentimos..*Com Elisa Simantke, Harald Schumann, Ingeborg Eliassen, Juliet Ferguson, Leila Miñano, Nico Schmidt, Nikolas Leontopoulos, Maria Maggiore, Wojciech Ciesla e Daphné Dupont-Nivet (Investico).Investigate Europe é um projeto iniciado em setembro de 2016 que junta nove jornalistas de oito países europeus..Este trabalho foi financiado em Portugal pela Fundação Calouste Gulbenkian e na Europa pelas fundações Cariplo, Milão, Stiftung Hübner und Kennedy, Kassel, Fritt Ord, Oslo, Rudolf Augstein-Stiftung, Hamburgo, GLS, Alemanha, e Open Society Initiative for Europe, Barcelona.
Tessa Lyons-Laing é uma jovem executiva a quem foi atribuída uma responsabilidade mundial. Formada em Harvard, ex-consultora da McKinsey, é a gestora do Facebook, responsável pela luta contra a desinformação e o discurso de ódio. Vive em São Francisco e trabalha nos escritórios de Menlo Park, na Califórnia, da maior rede social do mundo, com mais de dois mil milhões de utilizadores..A entrevista que deu ao consórcio de jornalistas Investigate Europe, que o DN integra, durou, exatamente, 30 minutos. Foi feita no início de abril, por videoconferência. Lyons-Laing chegou uns minutos atrasada, acompanhada por uma colaboradora nos EUA, e outra em Berlim, na Alemanha. Sentou-se numa pequena sala, sem janelas, em que o único objeto visível é um caixote do lixo de plástico, cinzento, o que dá um toque de pré-modernidade a uma conversa centrada em argumentos futuristas: inteligência artificial, previsão dos gostos políticos dos cidadãos, entre outros..A entrevista decorreu antes do atentado no Sri Lanka, onde as autoridades decidiram bloquear o Facebook (e outras redes sociais) com o argumento de que estavam a ser difundidas mentiras e desinformação que prejudicavam as investigações..Mas esse era o ponto central desta entrevista: como o Facebook encara a difusão de mentiras, discurso de ódio. E o que está a fazer para não se tornar no "gangster digital" que o Parlamento britânico descreveu num relatório aprovado em 2019. A responsável explica-nos como funciona o maravilhoso mundo dos algoritmos, que escolhem o que vemos, preveem o que queremos ver e bloqueiam o que não devemos saber.."Sabemos que temos a responsabilidade de proteger as pessoas que utilizam os nossos produtos, e que essa responsabilidade é especialmente importante no período que antecede as eleições e outros períodos em que a informação é particularmente relevante para as comunidades em todo o mundo", começa por nos garantir Lyons-Laing, que fala depressa e com um discurso organizado.."Redimensionámos as nossas equipas que combatem os abusos e garantem a segurança: de 10 000 para 20 000 e serão 30 000 no final deste ano. Mas também com a tecnologia. Porque sabemos que com 2 mil milhões de pessoas que usam os nossos produtos, precisamos de soluções tecnológicas para potenciar o nosso trabalho. Removemos qualquer coisa que viole os padrões da nossa comunidade. Isso inclui conteúdo como discurso de ódio, mas também relatos falsos, ou comportamento coordenado não autêntico. Usamos o algoritmo de classificação de notícias para minimizar a distribuição, o número de pessoas que veem, o conteúdo que não viola os padrões da nossa comunidade, mas que é problemático de alguma outra forma, como desinformação e notícias falsas. Trabalhamos para dar às pessoas mais contexto sobre o que estão a ver e por quê.".Tudo isso parece deixar o Facebook satisfeito, à espera de mais provas académicas sobre o alcance da desinformação. Só nos últimos três meses, a rede fechou quase 800 milhões de páginas "falsas", garante. Como explica Lyons-Laing, persistem as reservas sobre a ideia de que é necessário regular, criar leis sobre atividade desta plataforma global..A Comissão Europeia continua a queixar-se de que ainda falta muito do que foi acordado com o código de conduta das plataformas, e que mais poderia ser feito: sobre bots ou sobre notícias falsas. Por que continua a haver queixas dos responsáveis da União Europeia? Este é um debate contraditório, como qualquer um no domínio da segurança, onde haverá sempre mais para fazer. É por isso que é importante que estejamos envolvidos neste tipo de diálogo. É importante que tenhamos mudado a forma como as nossas equipas trabalham, que tenhamos transferido recursos, e lançado investimentos, que não vejamos isto como um esforço de curto prazo, mas sim como uma nova forma de operar. Especificamente, em relação ao código de desinformação e às conversas que tivemos: em janeiro estávamos muito focados em partilhar o progresso que tínhamos feito e em implementar o código, e particularmente em torno do processo de autorização de anúncios políticos. Fizemos progressos significativos e estabelecemos realmente uma nova norma para a nossa indústria, fazendo muito mais para permitir a transparência em todos os domínios, não só para a publicidade de figuras políticas e campanhas, mas também para a publicidade normal, que é obviamente muito mais complexa de implementar. Sobre a questão da transparência: Sei o que o Comissário King e todos nós queremos, é poder medir com precisão a dimensão destes problemas e, depois, refletir honestamente o nosso progresso na luta contra eles. E uma coisa que é realmente importante reconhecer é como é difícil medir algo quando as pessoas não estão alinhadas com a definição. Quando se trata de notícias falsas, por exemplo, não há uma definição consensual do que significa ser notícia falsa ou desinformação. E não há um único consenso sobre a definição. Por isso, acreditamos que temos a obrigação de partilhar dados mais transparentes com académicos e investigadores, a fim de chegar a medições mais sólidas e honestas. E tomámos medidas para compartilhar mais dados do que nunca, de forma protetora da privacidade, num programa chamado Social Science One, que permitirá que académicos de todo o mundo tenham acesso a mais de um terabyte de dados sobre conteúdos no Facebook e o seu alcance, para que possam criar suas próprias métricas para alguns desses problemas e mostrar o seu progresso ao longo do tempo. Já vimos quatro estudos independentes que podemos partilhar convosco, que usaram as suas próprias metodologias para medir a prevalência e a tendência de notícias falsas especificamente no Facebook ao longo do tempo. E o que todos encontraram foi que, nos últimos dois anos, fizemos progressos significativos. Do lado da transparência, haverá sempre mais a fazer. Mas eu só quero que todos nós nos lembremos de como é importante basearmo-nos numa métrica robusta, certa, e não apenas em pontos de dados pontuais que, por si só, não mostram o quadro completo..Mencionou o Social Science One. Pelas leituras que fizemos, mas também de acordo com as nossas fontes, parece que o projeto ainda está a ser montado. Há também investigadores como, por exemplo, a Fundação Mozilla e outros académicos que dizem que esta iniciativa de transparência de anúncios não é suficientemente boa - precisa de ser mais aberta, mais transparente, que o Facebook deve abrir a API publicamente. Como responde a isso? Mais uma vez, penso que fizemos progressos significativos e que haverá mais a fazer, em particular no trabalho com investigadores externos. Não há um modelo de tamanho único para todos. Social Science One é um modelo crítico para atingirmos o nível de transparência que vamos oferecer. Mas foi concebido para o tipo de pesquisa que leva muito tempo aos académicos. Eu, como gestora, atuo num calendário de semanas ou meses, os académicos atuam num calendário mais longo. Mas é importante que eles sejam capazes de fazer esse trabalho de forma sólida para que possamos obter o tipo certo de métricas sofisticadas que precisamos ao longo do tempo. Não é a única forma de nos envolvermos com parceiros externos ou mesmo com a comunidade académica, apenas um dos muitos exemplos. Mas em algumas destas áreas existe uma tensão entre a transparência dos dados e a privacidade. Assim como há uma tensão em muito do trabalho que fazemos entre liberdade de expressão e segurança e autenticidade. Vamos continuar a lidar com essas tensões da forma mais aberta possível, a receber feedback e a continuar a investir, para que possamos, coletivamente, encontrar soluções mais sólidas. Porque sabemos que somos apenas uma empresa privada. E há tantas outras partes interessadas que precisam de fazer parte de qualquer solução para proteger as pessoas e as comunidades contra o abuso dos maus atores..Na sua introdução revelou que a estratégia do Facebook é, primeiro, retirar do site o conteúdo mau, mas se o conteúdo é considerado problemático, o Facebook não o retira, mas esconde-o e assim por diante. O que é sempre problemático para nós é saber como o Facebook decide se o conteúdo é bom ou mau, ou como decide sobre uma fonte de notícias específica, se é uma boa fonte ou uma fonte inaceitável. Como é que decide em termos de credibilidade? E quem decide? Dissemos com muita transparência, e o Mark [Zuckerber, CEO do Facebook] partilhou a carta dele recentemente: Não queremos ser, e não pensamos que uma empresa privada deva ser, quem determina que conteúdo é bom ou mau, que fontes de notícias são boas ou más para o mundo. Isso é realmente algo que tem de ser feito de uma forma muito mais abrangente. Permitam-me que fale sobre o que estamos a fazer hoje para clarificar e, depois, falar também sobre alguns dos aspetos que estamos a discutir. Hoje, as únicas coisas que removemos do Facebook são aquelas que violam os padrões da comunidade. Tornamos públicos os nossos padrões da comunidade, as diretrizes que são usadas para aplicá-las e os dados em torno delas. Quanto realmente é removido, e quanto disso é removido através de métodos de inteligência artificial, versus o que é reportado por humanos. No que se refere às medidas que tomamos para reduzir o conteúdo, a única fonte de que dispomos para determinar se algo é verdadeiro ou falso, são os verificadores de factos independentes com quem trabalhamos, 43 organizações em países de todo o mundo. E todos eles são certificados pela rede independente de verificação de fatos e atendem aos critérios e ao código dessa organização. Outras mudanças que fazemos no ranking de notícias são baseadas no feedback da nossa comunidade. Então, por exemplo, ouvimos da nossa comunidade que o clickbait é uma experiência muito má, e sabemos que o clickbait corresponde a muitos dos tipos de abusos e conteúdo problemático que vemos os maus atores a usar para tentar obter uma distribuição mais ampla. Assim, com base no feedback da nossa comunidade, desenvolvemos classificadores de inteligência artificial automática para identificar e reduzir a distribuição de clickbait. Para sermos transparentes com os editores, incluímos essa informação nas diretrizes, para que os bons atores e os bons editores saibam que o clickbait é algo que é penalizado no Facebook. Mas há mais trabalho a fazer aqui, e é por isso que Mark - e ele esteve na Europa em abril - está a falar sobre como temos responsabilidade, como uma sociedade e não apenas uma empresa privada, para participarmos no debate com vista a definir que conteúdos devem, ou não, ser permitidos online, e como devemos ser transparentes nas ações que tomamos no ranking noticioso..O ranking é a página inicial de cada um dos utilizadores. Como é definida? Há vários níveis de intervenção Por exemplo, há muitas queixas sobre propaganda russa, etc. Eu gostaria de entender como classificam as fontes de notícias, não apenas o conteúdo mau ou as notícias falsas. Deixe-me tirar um minuto para falar sobre como o ranking funciona e então tentarei responder mais diretamente à sua pergunta. A forma como o ranking de notícias funciona é através de um algoritmo. E o objetivo do algoritmo é mostrar às pessoas as mensagens que são mais relevantes ou significativas para elas. É personalizado, em quatro passos diferentes. O primeiro e mais importante passo é o inventário. As únicas coisas que podemos mostrar nos feeds de cada pessoa são posts das pessoas de que gosta, as páginas que seguiu, os grupos a que aderiu. Esse é o lado mais importante. O segundo passo são os sinais. Levamos em conta centenas de milhares de sinais diferentes, a maioria dos quais são personalizados. Coisas como, por exemplo, quem realmente publicou uma coisa. Se for um artigo noticioso que a Lauren [a colaboradora sentada ao lado de Tessa durante a entrevista] partilhou, como a Lauren e eu somos realmente amigas, então isso é um sinal mais forte para mim, enquanto que se me chegar um artigo que a mãe da Lauren partilhou, eu não conheço a mãe da Lauren tão bem, mesmo que sejamos amigas no Facebook, não nos relacionamos com tanta frequência, de modo que é um sinal menos forte para mim. A terceira categoria são as previsões. Fazemos algumas dezenas de previsões, e as previsões são principalmente pessoais como a probabilidade de alguém realmente comentar sobre isso ou a probabilidade de alguém realmente assistir ao vídeo. Isso são sinais de que o conteúdo pode ser significativo ou relevante para as pessoas. No final chegamos a uma pontuação de relevância. Essa é novamente pessoal para cada indivíduo, para cada post, de cada vez que se abre o feed de notícias, essa pontuação é que determina a ordem em que as histórias aparecem. Agora o que fazemos quando tomamos medidas de classificação adicionais para combater o abuso, os maus atores e o conteúdo problemático é essencialmente adicionar novos sinais e novas previsões que aumentam essa pontuação de relevância. Assim, um exemplo é o sinal atribuído pelos verificadores de factos independentes, mas nós também temos, como mencionou, outras abordagens. Fizemos muito investimento nos últimos dois anos para combater abusos, para combater notícias falsas, para proteger eleições, mas em paralelo também estamos a desenvolver produtos. Por exemplo, em janeiro do ano passado lançámos uma mudança para as interações sociais significativas, e isso não foi motivado por esse trabalho de integridade, foi motivado pelo feedback de nossa comunidade que queria ver mais conteúdo de amigos e familiares, e menos de páginas e fontes públicas, e por causa dessa mudança, todas as páginas sentiram um declínio - a quantidade relativa de conteúdo de fontes de conteúdo público em todo o painel diminuiu porque o conteúdo de amigos e familiares aumentou no newsfeed, mais uma vez com base no feedback das pessoas. Mas acho que isso fez com que as pessoas pensassem que éramos nós a tomar decisões sobre fontes de notícias específicas quando realmente era uma mudança de produto motivada pelos utilizadores..Uma das questões mais sensíveis, relacionadas com isso que diz, é a criação de "bolhas", "salas de eco", onde as pessoas recebem apenas a informação de que gostam, e as fontes que a dão. Gostaria de saber se o Facebook realmente tem algum interesse profundo em mudar o seu algoritmo para que haja um debate mais aberto e não apenas o mecanismo personalizado que descreveu, e pode realmente ser parte deste grande problema? Primeiro, quero fazer uma pausa no ponto das salas de eco. Há muita pesquisa que precisa de ser feita para se entender melhor esta questão, e achamos que é incrivelmente importante estudar e entender. No momento, a investigação sugere que as pessoas estão expostas a uma maior diversidade de perspetivas no Facebook do que fora do Facebook. E em parte porque as pessoas se relacionam com amigos e familiares que são mais diversos do que as pessoas com quem interagem no dia-a-dia. Isso permite que contactemos com fontes de notícias que não conheceríamos. Mas achamos que temos uma responsabilidade estamos a estudar o potencial das "bolhas". Queremos entender melhor a relação entre os nossos produtos e questões como a da polarização. Mas é realmente importante que todos nós entendamos que essas questões têm uma base sólida de pesquisa académica antes de fazermos mudanças que podem ter impactos imprevisíveis..Tais como? Deixem-me dar dois exemplos. As pessoas clicam em clickbait, mas se confiássemos apenas em sinais, pensaríamos que o clickbait era uma ótima experiência para as pessoas e algo que era bom e significativo. Mas sabemos, pela pesquisa, que as pessoas realmente não gostam dessa experiência e é por isso que construímos classificadores de inteligência artificial para prever e reduzir o clickbait. Outro exemplo é a desinformação, mesmo que as pessoas se liguem a muitas fontes que partilham informações erradas, nós tomamos medidas para reduzir a sua distribuição, trabalhamos com verificadores de factos independentes. E há certamente mais coisas que podemos fazer e continuaremos a fazer....Já mencionou a sua rede de verificadores de factos e gostaríamos de saber se o Facebook está satisfeito com a experiência. Muitos jornalistas, por exemplo, lançaram críticas sobre a relação entre o Facebook e as empresas de "fact-checking". Posso dizer categoricamente que não estou na equipe de relações públicas, sou uma gestora de produto, não sou avaliada com base nas manchetes, sou avaliada com base na prevalência de notícias falsas no Facebook. E eu é que dirijo o programa de verificação de factos. Então, posso prometer que, como gestora de produto, por mais que goste de falar com jornalistas, não estou motivada por manchetes e sim pela experiência que as pessoas têm no Facebook. Então eu não iria gastar tanto do meu tempo pessoal ou da minha equipa... Acho que é importante reconhecer que não há uma só bala de prata quando se trata de desinformação. Uma das melhores coisas que podemos fazer é remover as contas falsas. Outra são os investimentos que fizemos em pessoas e inteligência artificial para prever e remover contas falsas - e nós removemos nos passados três meses 754 milhões de contas falsas, e 99% dos casos foram detetados com o nosso sistema de inteligência artificial. Isso é fundamental na luta contra a desinformação, porque muitas vezes são as contas falsas que a semeiam ou espalham. Não dependemos apenas de verificadores de factos. Porque não há verificadores de factos em todos os países do mundo que cumpram a as regras da International Fact-Checking Network. Por outro lado, se dependêssemos disso estaríamos sempre a correr atrás do problema, porque é sempre mais fácil criar histórias falsas do que desmascará-las. Nós pedimos essas avaliações de verificadores de factos e aplicamo-las a todas as páginas e todos os domínios e todas as entidades que partilham o conteúdo falso para que possamos identificar que há um mau ator, com má reputação, que repetidamente partilha coisas classificadas como falsas, e com isso podermos reduzir a sua distribuição, para que não estejamos à espera para ver como a sua próxima história será partilhada..Como reage o Facebook à hipótese de se criar uma regulamentação da sua atividade da União Europeia? Não nos opomos à regulamentação. Em muitos aspetos, a carta de Mark foi um apelo para uma regulamentação cuidadosa. Primeiro, tem de ser eficaz. E uma das preocupações com a regulamentação será se esta for excessivamente onerosa de uma forma em que não sejamos capazes de fazer mudanças suficientemente rápidas para nos adaptarmos às táticas dos maus atores. Os maus atores não operam num ambiente regulado, eles identificam os passos que o mundo dá e são capazes de contorná-los. Temos de ser capazes de fazer isso, muito rapidamente. A minha equipa tem de mudar de estratégia muitas vezes ao dia, para identificar loops fechados que os maus atores estão a tentar explorar e, por isso, é importante que qualquer legislação seja consciente de como trabalha o nosso adversário, e de realmente ser eficaz. A segunda coisa é: a regulamentação tem de ser equilibrada. Existe uma tensão entre a liberdade de expressão e alguns dos outros princípios. Assim, qualquer regulamento teria de equilibrar esses diferentes valores, como hoje tentamos fazer. E a terceira coisa que eu acho que é importante dizer aqui é que a regulamentação tem que ter em conta a inovação. Somos uma grande empresa com muitos advogados, muitos gestores de produtos, muitos engenheiros, e se o RGPD [lei europeia de proteção de dados] foi um grande exemplo de como somos capazes de estar à altura dos novos códigos e dos novos regulamentos, e não apenas da UE. Mas temos de assegurar que as empresas que estão a começar ou as que, na Europa ou em qualquer outro lugar do mundo, estão a tentar envolver-se na tecnologia e construir produtos que são excelentes para as pessoas, que serão capazes de satisfazer as expectativas de qualquer quadro regulamentar. A última coisa que eu gostaria de dizer é que, tanto quanto nós acreditamos que há um lugar para a regulação, não acho que possamos esperar por isso. A regulamentação, como a pesquisa académica, leva tempo e eu acho que a transparência publicitária é um grande exemplo de como não esperámos pela regulamentação; tomámos medidas para fazer mais do que o necessário com base na responsabilidade que sentimos para com as pessoas da comunidade que servimos em todo o mundo. E vamos continuar a tomar medidas sobre a transparência dos anúncios, sobre notícias, notícias falsas, sobre outras formas de abuso relacionadas com as eleições e mais, antes de qualquer regulamento ser aprovado, porque isso é a responsabilidade que sentimos..*Com Elisa Simantke, Harald Schumann, Ingeborg Eliassen, Juliet Ferguson, Leila Miñano, Nico Schmidt, Nikolas Leontopoulos, Maria Maggiore, Wojciech Ciesla e Daphné Dupont-Nivet (Investico).Investigate Europe é um projeto iniciado em setembro de 2016 que junta nove jornalistas de oito países europeus..Este trabalho foi financiado em Portugal pela Fundação Calouste Gulbenkian e na Europa pelas fundações Cariplo, Milão, Stiftung Hübner und Kennedy, Kassel, Fritt Ord, Oslo, Rudolf Augstein-Stiftung, Hamburgo, GLS, Alemanha, e Open Society Initiative for Europe, Barcelona.