Já não basta ver para crer. Próxima fronteira na Inteligência Artificial é a luta contra "deepfakes"
Quando o gerente de uma subsidiária em Hong Kong recebeu um telefonema do diretor, as notícias eram boas: a empresa japonesa ia adquirir um novo negócio e para isso era preciso autorizar a transferência de 35 milhões de dólares. O diretor forneceu detalhes e disse ao gerente para coordenar o que fosse preciso com um advogado que o ia contactar por email. O negócio prosseguiu sem sobressaltos, não fosse um pormenor importante: a voz do diretor da empresa tinha sido falsificada usando Inteligência Artificial. Era um áudio deepfake que foi bem-sucedido no roubo de pelo menos 400 mil dólares antes de a fraude ser descoberta. E este é só o princípio de uma nova era que está a pôr em causa a capacidade humana de discernir entre verdadeiro e falso.
"Deepfakes tanto de áudio como vídeo já foram usados para encarnar executivos em empresas Fortune 500, incluindo CEO e CFO, tesoureiros e outros líderes", avisou o Bank of America num documento sobre os riscos destas tecnologias. "Nalguns casos, os deepfakes foram usados para humilhar ou assediar o executivo, fazendo parecer que ele tinha dito ou feito algo que não fez, de forma a prejudicar a reputação da empresa e do executivo."
Tornou-se tão barato e fácil manipular fotos, vídeos e áudio que está a surgir um novo mercado: o das ferramentas desenhadas para a prevenção e deteção de deepfakes.
No Massachussetts Institute of Technology (MIT), uma equipa de cientistas desenvolveu uma solução para evitar que imagens reais sejam manipuladas por IA. A técnica é "injetar" pequenos códigos nas fotos, levando a que os modelos que usam imagens reais para gerar imagens falsas não funcionem como deve ser.
"A ideia é imunizar as imagens para que se tornem resistentes à manipulação", explicaram os cientistas na apresentação da PhotoGuard durante a recente Conferência Internacional de Aprendizagem de Máquina. "Esta imunização baseia-se na injeção de perturbações adversárias imperceptíveis projetadas para interromper a operação dos modelos de difusão em causa, forçando-os a gerar imagens irrealistas." Ou seja, uma foto real de Joe Biden com este tratamento não poderia ser usada para gerar uma imagem manipulada.
É um sistema comparável às marcas de água usadas por bancos de imagens como Getty e Shutterstock para evitar que as suas fotos sejam usadas sem licenciamento. Discussões sobre uma possível padronização de marcas de água estão mesmo a decorrer entre empresas envolvidas na IA generativa, como OpenAI, Google e Microsoft, sendo que aqui a ideia é tornar mais fácil identificar imagens geradas artificialmente.
Este será um negócio de futuro, com várias empresas na corrida para comercializarem detetores de deepfakes. A startup Optic, que se dedica só a isto, garante que consegue identificar imagens criadas pelas plataformas generativas DALL-E, Midjourney, Gan.ai e Stable Diffusion com 96% de taxa de sucesso.
Também a GPTZero criou um modelo de classificação para detetar se um texto foi gerado pelo ChatGPT ou Bard que está a ser usado por investigadores de Harvard, Yale e a Universidade de Rhode Island. Também a Ficticious.AI trabalha sobretudo para o segmento da educação, de forma a ajudar professores a identificar trabalhos escritos por IA generativa. A Sentinel desenvolveu uma solução que examina textos e imagens em busca de manipulação e está a trabalhar com governos e agências de defesa mediática.
A Reality Defender, que tem apenas dois anos de existência, oferece ferramentas para empresas poderem fazer análises rápidas a ficheiros de áudio, vídeo e fotos em busca de manipulação digital.
Há ainda a Attestiv, que usa a sua própria tecnologia IA para "analisar de forma forense" fotos, vídeos, documentos e dados de telemetria. A startup faz uma estimativa da veracidade usando um sistema de pontuação.
Já a SensityAI, sediada nos Países Baixos, foca-se na deteção de imagens e textos artificiais e consegue identificar casos em que houve troca de caras (face swapping). Isto é importante porque é um método usado por criminosos para encarnar vítimas que usam a sua cara para desbloquear o acesso a contas.
A gigante dos chips Intel criou o FakeCatcher para identificar vídeos falsos, e outros esforços incluem o SemaFor da DARPA e a Blackbird.AI, uma empresa que tenta limitar o alcance de imagens que já foram identificadas como manipuladas.
Um problema generalizado
O uso de deepfakes tem potencial arrasador em todo o tipo de indústrias. Em Hollywood, por exemplo, os atores e argumentistas em greve querem garantias de que os estúdios não vão usar deepfakes para replicar artistas. Na música, ferramentas de IA têm sido usadas para criar canções que parecem ser cantadas por artistas como Drake ou Eminem e até de artistas mortos como Tupac Shakur, causando problemas porque a aplicação das leis de copyright é dúbia nestes casos.
Na política, há receios de que deepfakes sejam usados para manipular a opinião pública e espalhar desinformação perigosa. Em maio, a imagem falsa de uma explosão no Pentágono foi disseminada por meios como a RT (órgão controlado pelo Kremlin) e provocou o pânico, levando os serviços de emergência a serem inundados por chamadas. Dois meses depois, o Pentágono assinou um contrato com a startup californiana DeepMedia para usar IA na deteção de deepfakes.
A caminho das eleições de 2024, a questão surgiu quando o presidente norte-americano Joe Biden anunciou a sua recandidatura. No mesmo dia, o Comité Nacional Republicano lançou um anúncio com fronteiras invadidas por emigrantes ilegais e uma agressão militar chinesa. Era um anúncio feito com imagens fabricadas por IA e criou alarme suficiente junto do regulador das eleições, Federal Election Commission, que começou um processo para regulamentar o uso de deepfakes em anúncios políticos.
Também a Federal Trade Commission (FTC) avisou as empresas de que a proibição de "conduta enganosa ou injusta" na sua regulação pode ser aplicada a quem "produz, vende ou usa uma ferramenta que é efetivamente projetada para enganar", referindo serviços que permitem fazer deepfakes.
Mas enquanto a legislação tenta adaptar-se, são outras ferramentas tecnológicas que estão a combater a proliferação de deepfakes.
Em Los Angeles