Adolfo Mesquita Nunes foi o convidado da mais recente sessão do Fórum do Atlântico Futuro, iniciativa que reúne mensalmente em Cascais personalidades de diferentes áreas para refletir sobre os grandes temas que moldam o presente e o futuro das sociedades. Advogado, comentador e antigo secretário de Estado do Turismo entre 2013 e 2015, Mesquita Nunes tem-se afirmado ao longo da última década como uma voz regular no debate público português, intervindo frequentemente sobre democracia, instituições, economia e tecnologia. Licenciado em Direito pela Universidade Católica Portuguesa, integrou o governo liderado por Pedro Passos Coelho e manteve, desde então, uma intensa participação na esfera pública através de conferências, universidades e espaços de análise política. Foi precisamente nesse cruzamento entre política, tecnologia e sociedade que situou a sua intervenção no Fórum do Atlântico Futuro, escolhendo refletir sobre aquilo que considera ser um dos desafios mais profundos da atualidade: o impacto da inteligência artificial na democracia.A partir desse ponto de partida desenvolveu uma reflexão extensa sobre a forma como os algoritmos e as plataformas digitais estão a transformar a maneira como os cidadãos se informam, formam opiniões e se relacionam com o espaço público.Para Mesquita Nunes, a transformação começa num gesto aparentemente banal: o momento em que cada pessoa abre o telemóvel para consultar informação. “Se tivéssemos de pensar hoje onde começa a nossa imagem do mundo, aquilo que pensamos sobre as coisas, a resposta será inevitavelmente o telemóvel”, afirmou. A maioria das pessoas, explicou, inicia o dia mergulhando num fluxo contínuo de conteúdos digitais. “Abrimos o telemóvel e vemos um conjunto de coisas: notícias, artigos, vídeos, sátiras, influenciadores. Nem tudo é notícia, mas tudo ajuda a formar a nossa opinião sobre o mundo.” Este consumo permanente de conteúdos cria uma forma de relação com a informação muito diferente daquela que caracterizou grande parte do século XX..No passado, lembrou, havia sobretudo consumidores ativos de informação: as pessoas escolhiam um jornal, ligavam um canal de televisão específico, decidiam que conteúdos queriam acompanhar. Hoje, pelo contrário, grande parte da informação chega aos cidadãos de forma automática, selecionada previamente por sistemas digitais. “Nós já não somos apenas consumidores ativos de informação”, disse. “Somos sobretudo consumidores passivos.” Essa mudança levou-o a colocar uma pergunta que considera fundamental para compreender o momento atual. “Perguntei-me: quem escolhe o que aparece no meu telemóvel? Porque era evidente que não era eu.”A resposta encontra-se nos algoritmos que organizam as plataformas digitais. Esses sistemas analisam constantemente o comportamento de cada utilizador e utilizam essa informação para decidir que conteúdos devem aparecer primeiro. “Um algoritmo é, no fundo, um conjunto de instruções”, explicou. “Se o Adolfo vê um vídeo de política, então dá-lhe outro vídeo de política, porque ele gosta.” Mas rapidamente acrescentou que a lógica vai muito além dessa descrição simplificada. Os algoritmos observam a hora a que cada pessoa vê determinados conteúdos, o tempo que passa em cada vídeo, os temas que despertam mais atenção e até as palavras que levam alguém a clicar num determinado link. “Os algoritmos percebem quando vemos vídeos, quanto tempo vemos, quando desistimos, o que nos faz clicar”, afirmou.Com a introdução da inteligência artificial, esse processo tornou-se ainda mais sofisticado. As plataformas conseguem agora organizar enormes quantidades de dados sobre cada utilizador e utilizá-los para construir um perfil detalhado das suas preferências. O objetivo é simples: manter cada pessoa o máximo de tempo possível dentro da plataforma. “A intenção é dar-nos mais coisas de que gostamos”, explicou Mesquita Nunes. “Se eu não gosto de heavy metal, porque é que me haveriam de mostrar vídeos de heavy metal?” O problema, acrescentou, é que este sistema significa que existe sempre alguém — ou algo — a selecionar previamente aquilo que cada utilizador pode ver. “É como entrar numa loja e dizerem-nos: escolhi estas quatro camisas para si. Mas e as outras novecentas?”, questionou.Esse mecanismo tem consequências profundas para a forma como os cidadãos percebem a realidade. Uma das mais importantes é a criação das chamadas bolhas informativas. “Estamos a começar a viver em realidades feitas para nós, e diferentes umas das outras”, afirmou. Nas redes sociais, explicou, os algoritmos agrupam pessoas com interesses semelhantes e passam a oferecer conteúdos cada vez mais alinhados com as suas preferências. “Se eu carregar num link sobre vacinas e cancro, rapidamente o sistema me vai mostrar mais conteúdos sobre isso”, disse. Mesmo que a pessoa não tenha inicialmente uma opinião forte sobre o tema, a repetição constante de conteúdos semelhantes pode alterar a sua perceção da realidade. “Se eu vir todos os dias vídeos sobre vacinas e cancro, a probabilidade de eu começar a preocupar-me com isso aumenta”, afirmou.Segundo Mesquita Nunes, o problema não está apenas na repetição de conteúdos, mas na forma como diferentes grupos passam a viver em universos informativos distintos. “Já não é termos opiniões diferentes sobre as mesmas coisas. É não vermos as mesmas coisas.” Para ilustrar esse fenómeno, descreveu o exemplo de uma manifestação em que ocorrem confrontos entre polícia e manifestantes. Em contextos anteriores, as pessoas podiam interpretar de forma diferente as imagens transmitidas pela televisão, mas partiam das mesmas imagens. Hoje, explicou, cada utilizador pode receber apenas um fragmento específico da realidade. “Um vê os manifestantes a correr, outro vê a polícia a bater nos manifestantes”, disse. Quando essas pessoas discutem o assunto, deixam de partilhar uma base factual comum.Esta fragmentação da realidade contribui, na sua opinião, para um processo de polarização crescente nas democracias contemporâneas. Nas bolhas informativas, os utilizadores são frequentemente expostos aos exemplos mais extremos ou caricaturais do campo político oposto. “Em vez de vermos pessoas sensatas do outro lado, vemos apenas os exemplos mais absurdos”, explicou. Com o tempo, isso gera uma perceção distorcida dos adversários políticos. “Começamos a achar que quem está do outro lado é completamente louco”, afirmou. Esse processo tem consequências graves para o funcionamento das democracias, que dependem da capacidade de aceitar a legitimidade dos adversários.Outro elemento que reforça esta dinâmica é a lógica económica das plataformas digitais. O objetivo central desses sistemas é captar atenção e manter os utilizadores o máximo de tempo possível dentro das aplicações. “Os algoritmos são programados para captar a nossa atenção”, explicou. Estudos citados pelo orador mostram que os conteúdos que mais mobilizam essa atenção são aqueles que provocam emoções fortes. “Clicamos mais no que nos assusta, no que nos indigna, no que nos choca”, disse. Como consequência, os algoritmos tendem a amplificar conteúdos mais extremos. “Se percebem que clicamos mais num vídeo em que um político insulta outro do que num debate, vão dar-nos mais do primeiro.”.É neste contexto que Mesquita Nunes enquadra o crescimento do populismo. Na sua definição, o populismo é um discurso político que simplifica a realidade e divide o mundo entre bons e maus. “O populismo apresenta a política como uma luta entre um povo virtuoso e um inimigo corrupto”, explicou. Este tipo de narrativa encaixa perfeitamente na lógica das redes sociais. “De certa forma, o discurso populista e os algoritmos foram feitos um para o outro”, afirmou. Isso acontece porque mensagens simples, emocionais e frequentemente chocantes têm maior probabilidade de gerar partilhas e reações.A conferência abordou também o impacto da inteligência artificial na própria ideia de verdade. Com o desenvolvimento de tecnologias capazes de gerar imagens, vozes e vídeos falsos altamente realistas, a confiança nas provas visuais pode ser profundamente afetada. “Estamos a entrar numa sociedade em que podemos deixar de acreditar em qualquer coisa”, alertou. Durante séculos, explicou, as pessoas confiaram nos seus sentidos como forma de confirmar a realidade. Ver ou ouvir algo era considerado uma prova relativamente sólida. Com as novas tecnologias, essa confiança pode desaparecer. “Os vídeos deixaram de ser provas irrefutáveis”, afirmou.Quando isso acontece, acrescentou, surge um novo problema: as pessoas podem passar a confiar apenas naquilo que confirma as suas convicções. “Quando deixamos de ter intermediários, começamos a escolher a verdade que nos convém”, disse. Essa situação pode gerar uma sociedade em que diferentes grupos vivem em universos paralelos de informação.Mesquita Nunes sublinhou também que a inteligência artificial traz desafios importantes em áreas como a cibersegurança. Sistemas automatizados podem ser manipulados de formas difíceis de detetar. “A inteligência artificial aumenta brutalmente a superfície de ataque”, afirmou. Em ambientes empresariais, sistemas de decisão automatizada podem influenciar processos de seleção, gestão ou investimento sem que os responsáveis se apercebam imediatamente das consequências.Apesar de todos estes riscos, o antigo governante fez questão de sublinhar que a inteligência artificial tem também um enorme potencial positivo. Em áreas como a medicina, a investigação científica ou a produtividade económica, as possibilidades são extraordinárias. “Se a inteligência artificial fizer metade do que promete, será profundamente revolucionária em muitas áreas da nossa vida”, afirmou. Ainda assim, considera que esta revolução tecnológica tem características inéditas. “Esta é a primeira revolução tecnológica em que as próprias pessoas que a criam dizem que têm medo”, observou.A velocidade da transformação é outro fator que distingue esta revolução das anteriores. “Entre a invenção da eletricidade e a eletricidade chegar às casas passaram décadas”, recordou. “Entre o computador e termos computadores em casa também passaram décadas.” No caso da inteligência artificial generativa, a mudança ocorreu num espaço de tempo muito mais curto. “O ChatGPT apareceu há quatro anos. Há quatro anos não existia nada do que hoje estamos a ver.”Perante este cenário, Mesquita Nunes defendeu a necessidade de desenvolver mecanismos de regulação que permitam lidar com os riscos associados à inteligência artificial. Essa regulação, insistiu, não deve significar censura ou controlo político dos conteúdos. “Regular algoritmos não é controlar conteúdos”, afirmou. “É dar mais poder às pessoas para personalizar o acesso e criar mecanismos de equilíbrio.” Atualmente, argumentou, existe um sistema que determina quem aparece e quem não aparece nas plataformas digitais sem que os cidadãos tenham qualquer capacidade de o questionar. Na conclusão da conferência, deixou claro que os desafios colocados pela inteligência artificial vão muito além da tecnologia ou da economia. Na sua perspetiva, trata-se sobretudo de questões culturais e éticas que obrigam as sociedades democráticas a repensar a forma como funcionam. “A parte que me preocupa não é económica”, afirmou. “É civilizacional, cultural e ética.” O debate promovido pelo Fórum do Atlântico Futuro terminou deixando no ar uma pergunta central: de que forma poderão as sociedades preservar a liberdade e a pluralidade num mundo cada vez mais mediado por sistemas digitais invisíveis.