No dia 20 de dezembro do ano passado, nas redes sociais, alguém colocou um vídeo manipulado de uma reportagem televisiva sobre um político português muito conhecido a dizer muito mal de outro político português muito conhecido..Usando mecanismos de inteligência artificial (IA), o(a) autor(a) deturpou o vídeo de forma a que o mesmo político com a mesma voz e até os movimentos labiais completamente ajustados, surja agora a dizer exatamente o contrário do que disse..O que antes tinha sido um implacável ataque a um político adversário passou a uma implacável autocrítica, produzindo declarações como “não tenho capacidade para nada, nunca tive nem nunca hei de ter”, “sou na realidade um imbecil”, “espero que o país tenha percebido isso há muito tempo”, “não consigo evitar sentir-me uma avantesma”, “as avantesmas ainda têm utilidade e eu nem para adubo devo servir”, “as minhas cinzas na terra, decerto deverá morrer tudo à volta e fazer com que Chernobyl pareça uma brincadeira de crianças”..O vídeo está ainda disponível numa rede social e o(a) autor(a) da conta assume abertamente que esta, recorrendo a “mecanismos de IA”, só serve para “efeitos de paródia e divertimento”. Não tem assim nada a ver com o jogo duríssimo que já se pratica internacionalmente, por exemplo nos EUA, onde Donald Trump foi “vítima” de uma fotografia falsificada ultrarrealista onde aparecia algemado, ou no Brasil, onde Lula foi representado a ser vaiado e chamado de ladrão em atos de campanha..Quanto a Portugal, Rita Figueiras, professora de Comunicação Política na Universidade Católica, viu o vídeo nacional que lhe foi enviado pelo DN. E qualificou-o: “É potente”..Ou seja: “O vídeo é sofisticado em termos formais (voz é truncada numa peça jornalística), mas ninguém diria algo assim. Nesse aspeto destrói a credibilidade do próprio vídeo mas é potente porque ecoa o que um determinado grupo acha ou gostaria de ouvir - é aí que reside a sua força, creio.” Portanto, foi feito “não para acreditar” mas “reforçar convicções”..“Reforçar convicções” é a palavra-chave. Poucos dias depois de ter colocado o vídeo online, o(a) autor(a) da sátira avisava “quem ainda se apercebeu” que tinha sido “retirada visibilidade” ao vídeo. E isto porque, no seu entender, “incomodou indivíduos nas altas instâncias do poder que não têm sentido de humor”. Ou então - concluía - “porque talvez tenha de certa forma tornado visíveis” algumas “tristes verdades” que se “querem esconder”..De que “altas instâncias” falava não se sabe. O que se sabe é que na rede X (antigo Twitter), Miguel Poiares Maduro, amigo do político visado nesta “sátira”, se dirigia diretamente ao proprietário da rede, o multimilionário norte-americano Elon Musk, queixando-se de que não conseguia denunciar à própria rede “vídeos ou áudios falsos”. E escreveu ainda: “O conteúdo em si pode ser só enganador se não for claro do vídeo em causa que se trata de um vídeo falso.”.“Aquilo que me levou a suscitar isto foi tido como verdadeiro por algumas pessoas, sendo que ao vê-lo aparece muito brevemente uma menção à IA que logo desaparece.”.Falando ao DN, Poiares Maduro disse que não teve nenhuma resposta de Musk. E acrescenta que este é, por cá, um mundo desregulamentado. Nos EUA, acrescenta, já se ensaiam algumas soluções: todos os conteúdos produzidos com software de IA deverão ter, obrigatoriamente, marcas de água assinalando precisamente que o conteúdo é falso. E estarão já os partidos portugueses a usar IA? “Seguramente.”.“Jogo do gato e do rato”.Rita Figueira fala nas mesmas soluções de marca de água e ainda em ações regulamentares a incidir sobre as plataformas digitais (rede X, WhatsApp, Telegram, etc., etc., etc.) onde estes conteúdos do chamado deep fake se disseminam de forma exponencial..Mas isto pode ser, para já, apenas tentar travar o vento com as mãos. E a verdade é que à medida que se vão aperfeiçoando softwares de deteção de conteúdos produzidos com IA também se vão aperfeiçoando os mecanismos de produção de conteúdo tão falso quanto hiper-realista. “É um jogo do gato e do rato”, diz Rita Figueiras. .A verdade, prossegue a professora universitária, é que o uso maligno da inteligência artificial generativa (“generativa” porque cria conteúdos) “aproveita o zeitgeist”, isto é, o espírito do tempo. E esse “espírito do tempo” é aquele em que “as pessoas partilham conteúdos não por causa da sua verdade mas porque confirmam as suas convicções, mesmo sabendo que não são verdadeiros”. São as tais “tristes verdades” de que falou o autor do vídeo sátira online referido na abertura deste texto..Luís Miguel Rainha, publicitário, fala então em “ferramentas de aldrabice” com enorme potencial para reforçarem uma “desconfiança tremenda” dos eleitores face à política. Além do mais, “isto contribui para uma “cada vez maior polarização” com muitas pessoas, sobretudo as “sem capital cultural muito intensivo”, a criarem “ilhas onde se fecham em câmaras de eco onde só ouvem o que querem”..E os partidos - pergunta o DN - já estarão a usar todos os novos instrumentos agora ao dispor neste assustador mundo novo? .Rita Figueiras responde de pronto: “É impossível que não estejam”. Porque, na verdade - segundo acrescenta - a IA até pode ter um uso benigno ao serviço das campanhas eleitorais..À expressão inglesa deep fake já usada seguem-se outras, igualmente em inglês: big data e micro targeting. Rita Figueiras diz que a IA permite agora tratamento rápido de doses massivas de informação, nomeadamente sobre interesses e anseios dos eleitores, segmentando-os geograficamente, etariamente, por género, e todos os outros tipos de pormenorização possível. .“Relação granular”.Quem disponha destes mecanismos conseguirá, por exemplo, percorrer o país em campanha e perceber concelho a concelho, no eleitorado dos pais e das mães, em cada sítio, se o problema mais grave é o de falta de creches para as crianças ou falta de escolas para os adolescentes..E a IA não só permite esta segmentação como permitirá também definir as mensagens para cada grupo. Terá, além do mais, outras valências menos sofisticadas - e porventura sacrificadoras de postos de trabalho. Com os softwares de IA já massificados e grátis, como o ChatGPT, não é preciso um assessor que escreva notas de imprensa simples: os computadores tratarão de tudo..Quanto à análise do big data, aí coloca-se outro problema. Na verdade, estes mecanismos, que permitirão, no dizer de Rita Figueiras, docente da Católica uma “relação granular com o eleitorado”, ainda são muito caros..Ora, diz Luís Miguel Rainha, isso significa que “não estarão ao alcance de quem quer, mas sim apenas de quem pode”. E quem poderá são os partidos mais ricos e quem não poderá são os partidos mais pobres: “Abre-se um fosso entre quem tem e quem não. A IA vai reforçar a desigualdade já existente nos acessos à comunicação eleitoral”. Quem está à frente ficará mais à frente; quem está atrás, ficará mais para trás. .Casos fora da política.Desportista radical vítima de chantagem.A surfista e skater portuguesa Mariana Rocha Assis foi vítima de assédio por parte de alguém que lhe exigiu cinco mil euros para não divulgar imagens suas sem roupa, que a desportista nunca tirou..Contactada a 17 de novembro do ano passado pela pessoa que lhe exigiu o dinheiro para não tornar públicas as imagens, Mariana Rocha Assis, em declarações à CNN Portugal, admitiu que, antes de qualquer outra reação, ficou confusa com o realismo das falsificações..Estas imagens, forjadas pelo hacker em causa, são chamadas fakenudes, ou seja, falsas fotografias que contêm nudez da pessoa retratada. São obtidas por completo com recurso a tecnologia que envolve Inteligência Artificial, capaz de gerar imagens muito realistas..O hacker confrontou Mariana com a possibilidade de expor as imagens, ameaçando com graves consequências, como riscos reputacionais junto de patrocinadores, da família e com a probabilidade da revelação abalar os alicerces do seu negócio de hotelaria, que a surfista tinha criado no Sri Lanka. Mariana bloqueou o número que o hacker utilizou para a contactar e ignorou por completo a ameaça, expondo, porém, as suas preocupações junto dos patrocinadores, para que não houvesse consequências adicionais..Foram todos compreensivos, mas a história não ficou por aí. Utilizando outros números, a pessoa que tentou extorquir o dinheiro a Mariana voltou à carga, várias vezes. A desportista acabou por expor toda a situação na sua página do Instagram, denunciando a chantagem, mas o hacker chegou a responder à publicação. Contrapôs que foi Mariana quem lhe enviou as fotografias e ainda garantiu que havia uma conversa que contextualizava o envio das imagens..De Ronaldo a Obama. Abismo do deepfake.O ex-Presidente do Estados Unidos Barack Obama, num vídeo que se tornou viral, diz coisas que ele próprio admite que nunca diria, como utilizar calão para se dirigir a Donald Trump. No vídeo, a cara de Obama junta-se à sua voz para alertar a opinião pública sobre os perigos da simulação, conhecida atualmente como deepfake..O vídeo foi feito pelo ator e realizador Jordan Peele para acautelar os perigos desta tecnologia que recorre a Inteligência Artificial (IA) e que dificilmente se distingue da realidade. Não foi Obama a falar, foi Peele, mas para a opinião pública tudo isto passa como verdadeiro e muitas vezes pode desembocar num outro fenómeno, conhecido como notícias falsas ou fakenews..Os custos reputacionais de vídeos simulados acabam por ser mais evidentes quando entram pela pornografia. Foi isto que aconteceu a Taylor (nome fictício), uma mulher retratada num documentário intitulado Another Body (Outro Corpo, numa tradução livre), de Sophie Compton e Reuben Hamlyn, vencedor do prémio SXSW, de acordo com o noticiado pela CNN Portugal em novembro do ano passado. Taylor recebe de um amigo um endereço de uma plataforma de filmes pornográficos..Taylor, com 22 anos, nunca fez pornografia, mas não foi isso que se viu naquele filme, feito com recurso a IA. O autor do filme não o fez uma vez mas seis, sem ser condenado, por não haver um enquadramento legal para que isso acontecesse. Um ano antes, em dezembro de 2022, o futebolista Cristiano Ronaldo apareceu num filme a dizer que iria abandonar a carreira porque o clube onde jogava na altura, o Manchester United, iria ser comprado pelo empresário Elon Musk. O vídeo acabou por ser provado falso, tendo sido uma adulteração de uma entrevista que o jogador deu ao canal Sky Sports.