Camille Grenier participou na 33.ª edição do Estoril Political Forum, organizado pelo Instituto de Estudos Políticos da Universidade Católica, no Hotel Palácio.
Camille Grenier participou na 33.ª edição do Estoril Political Forum, organizado pelo Instituto de Estudos Políticos da Universidade Católica, no Hotel Palácio.PAULO SPRANGER

Camille Grenier: “É necessário mais transparência sobre como os nossos dados são utilizados pela IA”

O diretor executivo do Fórum sobre Informação e Democracia advoga a utilização ética da Inteligência Artificial nos meios de comunicação.
Publicado a
Atualizado a

O Fórum sobre Informação e Democracia nasceu em 2018, fruto de uma iniciativa da associação Repórteres Sem Fronteiras. Congregou Prémios Nobel, professores universitários e intelectuais bem como o apoio da ONU, da UNESCO e de governos de uma dúzia de países, de início, e hoje de 55, Portugal incluído. Desde o ano passado diretor executivo desta organização independente que pugna pela liberdade de imprensa, o francês Camille Grenier esteve em Portugal para participar no Estoril Political Forum, no qual esta sexta-feira, 6 de junho, se discute se a Inteligência Artificial (IA) vai destruir a democracia.

Devemos ter mais medo da Inteligência Artificial ou da estupidez natural?

Há uma questão de responsabilidade. De quem é responsabilidade de distinguir entre verdade e falsidade num mundo cada vez mais complexo? É dos indivíduos? Ou é das empresas que estão a mudar totalmente a forma como comunicamos, a forma como criamos informação hoje em dia com a Inteligência Artificial? E que, além disso, arrecadam frequentemente milhões ou mesmo milhares de milhões de euros. Temos tendência para pensar que a responsabilidade pela preservação de um espaço democrático cabe mais às empresas que criam estes serviços e que têm este impacto na democracia e na sociedade em geral, mas também nos indivíduos e nos seus sentimentos mais íntimos.

Qual é a situação atual da utilização da IA no espaço público e da sua regulamentação?

No espaço público, podemos constatar que existe um nível bastante elevado de adoção do ChatGPT e do OpenAI, por exemplo. Assim, podemos ver que existe uma curva muito, muito forte, que está a avançar muito mais rapidamente do que a que vimos com as primeiras empresas da internet. E também começamos a ver que a IA está a ser cada vez mais utilizada para funções de pesquisa. Assim, o que costumávamos fazer num motor de busca como o Google, por exemplo, para saber o que fazer quando temos 24 horas em Lisboa, hoje cada vez mais pessoas fazem-no através de sistemas de IA, de agentes de Inteligência Artificial. Portanto, aí está uma transformação das utilizações do lado individual. Há também um impacto na produção de informação e podemos ver que a Inteligência Artificial está a ser cada vez mais utilizada para criar conteúdos, quer se trate de texto, fotografias, vídeo ou áudio. Tudo isto é um verdadeiro desafio. Ainda não tivemos o tipo de cataclismo informativo que esperámos que acontecesse em 2024, por exemplo, com o ano eleitoral. Não se registou nenhuma mudança histórica. Mas, em todo o caso, podemos ver que há várias tendências. Por um lado, há o evitar da informação, num mundo que se está a tornar, como eu disse, um pouco complicado demais. Há esta tendência para evitar a informação, em que se torna cada vez mais difícil distinguir entre o que é verdadeiro e o que é falso. Quando a Inteligência Artificial é utilizada pelos meios de comunicação social, é importante respeitar determinados princípios e, em particular, as cartas para a utilização da Inteligência Artificial nos meios de comunicação social, por exemplo. Sobre a regulamentação, temos o AI Act, que é um regulamento europeu que está em vias de ser aplicado e que tem uma abordagem baseada no risco. E com diferentes níveis de risco, nomeadamente para as empresas. A integridade da informação não é necessariamente um risco, que era um dos maiores riscos incluídos neste regulamento. E há também uma abordagem que se baseia fortemente em normas, ou seja, normas técnicas. Por isso, está a ser feito muito trabalho sobre estas questões. É algo que ainda vai demorar muito tempo, e estamos a acompanhar de perto a sua aplicação, em particular, as questões de governação.

“A responsabilidade pela preservação do espaço democrático cabe às empresas que criam estes serviços e que têm impacto na democracia, na sociedade, e também nos indivíduos e nos seus sentimentos.”

De que forma, ou em que limites, os meios de comunicação social devem usar a IA?

Pensamos que é um pouco como pedir aos meios de comunicação social que deixem de utilizar o Google ou computadores. Também não acho que devamos ter um medo totalmente irracional da Inteligência Artificial. É uma ferramenta, como qualquer outra. É uma ferramenta que pode ter benefícios. É a isto que os nossos colegas dos Repórteres Sem Fronteiras chamam jornalismo aumentado. E podemos ver que há algumas utilizações muito interessantes para ela, nomeadamente na análise de dados. É verdade que a Inteligência Artificial permite processar dados muito vastos e muito importantes. E isso pode ser muito interessante. No entanto, é preciso ter cuidado ao utilizar a Inteligência Artificial de acordo com determinadas normas éticas. Por exemplo, não se pede a uma Inteligência Artificial que escreva um artigo e o publique como tal. Verificação humana, sempre. E depois, mantém-se dentro da ética e das normas profissionais do jornalismo, da verificação humana dos efeitos, etc.. Há também a transparência para com os leitores, para com o público, que é muito importante. Depois, no Fórum sobre Informação e Democracia, estamos a trabalhar na definição de Inteligência Artificial ética ou Inteligência Artificial de interesse público. Esta foi uma das recomendações que fizemos, inspirada pelo Movimento do Comércio Justo. O que se vê, por exemplo, com o café ou o chocolate de comércio justo, permite-nos reduzir a simetria de informação entre o utilizador, o produtor, o criador e o aplicador da Inteligência Artificial. Dizer que aquela ferramenta, aquela Inteligência Artificial, respeita determinadas normas. Pode tratar-se de normas ambientais, de normas éticas ou de normas em matéria de direitos laborais, por exemplo, que têm um peso importante na Inteligência Artificial.

Como é que os meios de comunicação social podem recuperar a sua credibilidade e o seu papel de mediadores? E a IA pode desempenhar esse papel?

Para nós, uma das questões que se colocam é a sustentabilidade financeira dos meios de comunicação social. Podemos ver hoje que os meios de comunicação social estão envolvidos em dinâmicas diferentes. Existe, de facto, a questão da confiança, mas, na minha opinião, a questão da confiança é também reforçada ou acentuada pela sustentabilidade financeira. Quando temos meios de comunicação social que lutam, na Europa ou em todo o mundo, para pagar aos seus jornalistas, para assegurar a sua viabilidade, isso vai necessariamente trazer mais pressão, a corrida à informação mais recente, a corrida ao clique. Num mundo que está a acelerar, penso que é importante redescobrir uma certa temporalidade que permita aos jornalistas fazer o seu trabalho de uma forma responsável, que permita aos meios de comunicação social ter estratégias de comunicação distribuídas no tempo e não numa urgência constante. Por exemplo, sobre aquilo a que se chama news avoidance, evitar as notícias, vimos durante a crise de covid que, no final de contas, muitas pessoas recorreram aos meios de comunicação tradicionais porque havia muitas incógnitas, pelo que foi necessário recorrer a terceiros de confiança, como lhes chamamos no Fórum. E é verdade que quando se vê um jornal que se lê há anos ou um noticiário televisivo que se vê há anos, há um retorno natural. Por isso, não acho que esteja tudo perdido nos media.

“Um dos maiores riscos para a integridade da informação é quando temos personalidades com um projeto político e que utilizam ferramentas poderosas em seu benefício. O Twitter continua a ser extremamente poderoso para moldar o debate público.”

Desde o Brexit, as redes sociais têm o hábito de polarizar as sociedades e fazer pender a balança a favor de candidatos extremistas. Esta é a maior ameaça às sociedades democráticas e não a IA?

Nos últimos anos, houve de facto uma rutura e uma mudança estrutural na distribuição. A Inteligência Artificial está a ter um impacto na própria produção de informação. Para nós, trata-se de um enorme desafio, porque facilita muito as campanhas de informação à distância, etc.. E diminui o custo relativo da informação. De facto, para nós, a distribuição é atualmente o maior desafio. Somos uma organização da sociedade civil e estamos a aplicar uma parceria internacional assinada por 55 governos, incluindo Portugal. E um dos princípios que estabelecemos, em 2018, é a neutralidade ideológica, política e religiosa das plataformas que estruturam o espaço de informação e dos seus proprietários. O que vemos hoje é que, quando temos um proprietário de uma plataforma que apoia publicamente um presidente nos Estados Unidos, e depois certos partidos, como na Alemanha no caso de Musk, este é de facto o maior risco, ou um dos maiores riscos, para a integridade da informação, porque temos personalidades que têm um projeto político e que utilizam ferramentas extremamente poderosas em benefício desse projeto político. Atualmente, o Twitter (X) continua a ser extremamente poderoso para moldar o debate público. Portanto, este é claramente o maior desafio para nós. Há ainda a questão da distribuição e da neutralidade ideológica e política.

A Rússia tinha, ou ainda tem, fábricas de trolls. Como é que a IA pode ser utilizada para campanhas de desinformação?

Existem dois tipos de Inteligência Artificial. Existe tanto a que nos permite produzir informação, como a que permite a sua circulação. No que diz respeito à primeira, é muito fácil hoje, com a Inteligência Artificial, produzir um artigo bastante convincente de desinformação total em apenas dois ou três cliques. E penso que é muito fácil experimentar isso. Ou, quando estamos a falar de criar imagens, também é muito fácil, com algumas palavras, criar desinformação ou má interpretação. No que diz respeito à distribuição, os nossos fluxos de informação são hoje em grande parte dirigidos pela IA. Estas Inteligências Artificiais utilizarão o que sabem sobre nós para nos enviar conteúdos de acordo com os nossos interesses, de acordo com as fotografias de que estamos a falar. E esta Inteligência Artificial também pode ser manipulada. Vemos isso quando temos, por exemplo, ataques coordenados a determinados serviços, onde, no final, basta uma pequena equipa altamente motivada para que um assunto, que não é necessariamente prioritário, mas que sobe muito facilmente no algoritmo. Vimos isto acontecer recentemente, nomeadamente nos processos eleitorais.

O Fórum para a Informação e Democracia trouxe o quê de novo?

Bem, o primeiro relatório foi elaborado por Christophe Deloire, antigo secretário-geral dos Repórteres Sem Fronteiras, que lançou este processo e que morreu há exatamente um ano. O primeiro relatório tinha por objetivo definir princípios para o espaço de informação e de comunicação. E o Fórum, o que nos propusemos fazer, foi traduzi-los em propostas, recomendações de políticas públicas ou projetos muito concretos. Um exemplo: um dos princípios estruturantes para nós é o pluralismo no espaço da informação. Como é que traduzimos este princípio de pluralismo, sobre o qual todos estamos de acordo em princípio? Como é que o pomos em prática? Reunimos especialistas de diferentes profissões, trabalharam em conjunto para produzir a matéria-prima que será utilizada na regulamentação. Uma ideia que saiu de um dos grupos de trabalho que organizámos foi a de trabalhar no algoritmo, por exemplo. E isso é ter uma pluralidade de escolhas para o algoritmo. Por outras palavras, podemos utilizar a mesma plataforma, mas escolher o algoritmo desenvolvido por uma determinada organização, meio de comunicação social, etc., para processar a informação de forma diferente. É isso que nós fazemos. Depois, há a parte em que recomendamos políticas públicas. Trabalhamos com os países que assinaram a parceria, em diferentes aspectos, no intercâmbio de boas-práticas, no tratamento de determinados assuntos específicos. Hoje, com a Ucrânia estamos a trabalhar em particular na desinformação, nas mensagens privadas, no Telegram, no WhatsApp, dizendo que é um pouco um ponto cego no combate à desinformação. Estamos a ter muita dificuldade em lidar com isso. E depois há a secção sobre recomendações de políticas públicas. Há ainda outra parte do nosso trabalho, que tem mais a ver com a criação de um equivalente ao IPCC, o Painel Intergovernamental sobre Alterações Climáticas, para o espaço da informação. Partimos da constatação de que, nos últimos anos, se tem feito cada vez mais investigação. A certa altura, nos EUA, abria um centro de investigação todas as semanas. Mas, no final, havia cada vez mais investigação, ou cobrindo parte do problema, ou cobrindo uma região específica, ou cobrindo uma plataforma, e assim por diante. Por isso, precisávamos de fazer uma meta-análise, como se diz, investigação sobre investigação, que nos permitisse perceber onde estamos hoje, qual é o nível de conhecimento sobre o espaço de informação e a sua estrutura, e o seu impacto na democracia. Foi isso que fizemos. Foi um projeto que decorreu durante 18 meses, com o Observatório da Informação e da Democracia. E publicámos o nosso primeiro relatório em janeiro deste ano.

Qual é o desafio mais premente no que respeita à IA?

Penso que continua a ser a necessidade de mais transparência e a necessidade de saber como os nossos dados são utilizados, como são processados, como os dados dos media são utilizados pela Inteligência Artificial... Mais uma vez, quando realizámos o trabalho do Observatório, acabámos por perceber que havia muita coisa que já sabíamos, havia cada vez mais investigação, mas havia ainda mais coisas que não sabíamos. É esta questão da investigação e do acesso aos dados, para os investigadores, para a sociedade civil e também para os jornalistas, que eu acredito que nos vai permitir encontrar as soluções corretas. Mas se não tivermos esta pedra basilar, o resto torna-se ainda mais complicado.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt