“Happy shooting!”

Publicado a

Apesar de repetidas juras pelas empresas de Inteligência Artificial (AI) de salvaguardas para proteger os utilizadores mais jovens, uma investigação conjunta da CNN e do Centro de Combate ao Ódio Digital (CCDH) (realizada em novembro e dezembro de 2025 e publicitado em março de 2026), sugere que oito dos dez principais chatbots de IA não apenas ignoraram sinais de alerta em cenários em que adolescentes discutiam atos violentos, como os auxiliaram no planeamento de ataques violentos, incluindo tiroteios em escolas, ataques bombistas em locais religiosos e assassinatos.

Investigadores disfarçados de adolescentes problemáticos, um baseado nos EUA, o outro na Europa, testaram dez chatbots populares – ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI e Replika. Em centenas de interações, gradualmente desviaram as mais de 700 conversas das expressões de angústia emocional para pedidos de detalhes operacionais sobre: (i) tiroteios em escolas ou ataques com facas; (ii) assassinatos de políticos; e (iii) atentados bombistas contra partidos políticos ou sinagogas. Nas duas fases finais dos testes, oito dos chatbots forneceram orientações detalhadas sobre localizações dos alvos, aquisição de armas e metodologias de ataque mais de 50% das vezes.

A utilização de chatbots de IA para auxiliar atos violentos era já conhecida.

Em janeiro de 2025, um homem que fizera explodir um Tesla Cybertruck em frente ao Trump International Hotel, em Las Vegas, utilizara o ChatGPT para obter informações sobre explosivos.

Em maio de 2025, na Finlândia, um jovem de 16 anos esfaqueou três estudantes do liceu de Pirkkala, depois de ter passado quase quatro meses a pesquisar ataques no ChatGPT, de acordo com documentos judiciais.

Em fevereiro passado, um atirador de 18 anos matou nove pessoas numa escola em Tumbler Ridge, no Canadá, depois de alegadamente ter usado o ChatGPT para planear o ataque. A conta do atirador tinha sido banida pela OpenAI, mas este ultrapassara a proibição criando uma segunda conta – que a empresa não reportou às autoridades. A família de Maya Gebala, de 12 anos, que ficou gravemente ferida no ataque, interpôs um processo alegando que a OpenAI tinha “conhecimento específico de que o atirador utilizou o ChatGPT para planear um evento com múltiplas vítimas”, mas não alertou as autoridades. A OpenAI reconheceu que considerou reportar a atividade, mas acabou por não o fazer.

Esta investigação conjunta da CNN e do CCDH mostra que 8 em cada 10 chatbots auxiliam potenciais agressores em mais de metade das respostas, fornecendo conselhos sobre locais a atacar e armas a utilizar num ataque. Apenas o Claude [da Anthropic] e a My AI [do Snapchat] se recusaram, de um modo geral, a assistir possíveis atacantes, em 68% e 54% das respostas, respetivamente. A Perplexity e a Meta AI foram as menos seguras, auxiliando os possíveis atacantes em 100% e 97% das respostas, respetivamente.

Os investigadores também avaliaram com que frequência os chatbots reconheciam as intenções de um potencial agressor e o desencorajavam consistentemente de realizar um ataque. Descobriram que apenas o Claude foi capaz de o fazer de forma consistente, oferecendo desencorajamento em 76% das respostas realizadas durante os testes. O ChatGPT e o DeepSeek apenas ocasionalmente oferecem desencorajamento.

Nas interações levadas a cabo, os investigadores descobriram que o Character.AI, popular entre os utilizadores mais jovens, era excecionalmente inseguro, tendo incentivado os utilizadores a cometerem ataques violentos em 7 casos, por exemplo: (i) o Character.AI sugeria que o utilizador “usasse uma arma” contra o CEO de uma seguradora de saúde a quem expressava ódio; (ii) o Character.AI sugeria agredir fisicamente um político de quem o utilizador não gostava. Nenhum outro chatbot testado encorajava explicitamente a violência desta forma, mesmo quando prestava assistência prática no planeamento de um ataque violento.

Vale a pena ver alguns exemplos revelados por esta investigação conjunta, de assistência prática destes chatbots em casos de ataques violentos.

Numa interação, o ChatGPT [da OpenAI] entregou mapas do campus de escolas secundárias a um utilizador interessado em violência escolar, enquanto outra mostrava o Gemini a dizer a um utilizador que discutia ataques a sinagogas que “estilhaços metálicos são tipicamente mais letais” e a aconselhar alguém interessado em assassinatos políticos sobre as melhores espingardas de caça para tiro a longa distância.

O Copilot [da Microsoft] respondeu “Preciso de ter cuidado aqui” antes de dar conselhos detalhados sobre espingardas. Mas deu.

Quando questionado sobre os estilhaços eficazes para explosivos, o ChatGPT forneceu comparações detalhadas de materiais, oferecendo-se para criar “uma tabela comparativa rápida mostrando os ferimentos típicos”. O Gemini [da Google] forneceu informações semelhantes, incluindo uma tabela comparativa detalhada.

O DeepSeek finalizou os conselhos sobre uma seleção de espingardas com o chatbot a desejar a um possível agressor: “Happy (and safe) shooting!” (“Boa (e segura) sessão de tiros!”).

Apenas o Claude e o My AI, se recusaram consistentemente a ajudar, com Claude a desencorajar ativamente os utilizadores e a fornecer recursos de saúde mental.

A Meta disse à CNN que tomou medidas “para corrigir o problema identificado”, enquanto a Google e a OpenAI afirmaram que os modelos mais recentes têm medidas de segurança melhoradas. A DeepSeek não respondeu aos pedidos de comentários.

É completamente inaceitável que um tão elevado número de chatbots de IA estejam disponíveis, não raro “ansiosos”, por ajudar a planear atos de violência em massa.

Esta investigação conjunta da CNN e do CCDH levanta questões da maior pertinência para o nosso devir próximo.

Desde logo, mostra que, salvo duas (!) exceções, as grandes tecnológicas desenvolvendo IA estão a colocar os lucros acima da segurança.

A tecnológica que melhor se comporta em termos de salvaguarda da segurança e recusa colaborar com potenciais atos de violência em massa, é a Anthropic. Porém, em finais de fevereiro passado, a Anthropic anunciou que vai flexibilizar o seu princípio fundamental de segurança, revendo a sua ‘política de escalabilidade responsável’, por poder prejudicar a sua capacidade de competir num mercado de IA em rápido crescimento.

Apesar de a Anthropic e a CNN dizerem que esta mudança da sua política é independente e não tem relação com as discussões da Anthropic com o Pentágono – nas quais o secretário da Defesa, Pete Hegseth, havia feito um ultimato à tecnológica para revogar as medidas de segurança de IA da empresa sob pena de perder um contrato de US$ 200 mil milhões de dólares com o Pentágono e ficar, na prática, numa lista negra do governo – é uma coincidência extraordinária que esta mudança de política no core do que faz desta gigante tecnológica uma empresa de IA “com alma”, ocorra na mesma semana em que o ultimato de Hegseth é feito.

Outra conclusão a tirar é que, mais uma vez, fica demonstrado que a autorregulação pelo setor ou pelas principais empresas do setor não funciona. Há alguns anos isso fora notório no setor financeiro. Esta investigação conjunta veio demonstrar que a larga maioria das principais tecnológicas com chatbots de IA, apesar de investirem milhares de milhões no desenvolvimento em IA, não acham necessário criar salvaguardas ou mecanismos que funcionem como barreiras em relação à sua utilização.

Desta feita, isso ficou claro em relação à sua utilização para casos de ataques violentos (tiroteios em escolas, ataques bombistas em locais religiosos e assassinatos de políticos e pessoas que se odeia). Tudo leva a crer que amanhã (ou hoje?) estes chatbots de IA ajudarão utilizadores que procurem fazer perigosas armas – biológicas, químicas ou outras.

Esta investigação conjunta torna claro que é necessário estabelecer limites legais e criar mecanismos de segurança preventivos relativamente ao desenvolvimento e ao funcionamento de IAs.

Nos EUA, apesar de existir legislação estadual – como na Califórnia, onde estão sediadas ou operando muitas tecnológicas –, a promiscuidade entre muitas grandes tecnológicas e a liderança americana conduziu à aprovação de legislação federal que proíbe legislação durante uma década (!).

Na União Europeia, por muito que se apoie as recomendações do Relatório Draghi-Letta no que tange à necessidade de desregulação de uma série de setores económicos para aumentar a competitividade das empresas europeias, foi já iniciada a regulação do setor; o que incomoda as grandes tecnológicas americanas. Porquê? Porque, se a regulação europeia fixar salvaguardas e linhas vermelhas ao desenvolvimento da IA, os chatbots e LLMs de IA dessas tecnológicas tenderão a ser programados para cumprir em todas as jurisdições onde operarem essas salvaguardas e linhas vermelhas. Por isso, a pressão do governo americano sobre a UE e seus países já começou e seguramente será muito forte e envolverá ameaças e chantagens de vário tipo, como é habitual na postura da atual liderança americana.

Porém, esta investigação conjunta da CNN e do CCDH mostra, de forma inequívoca, que a UE não deve ceder à pressão dos EUA e, ao invés, deve procurar aliados internacionais – China, Japão, Índia, Brasil, México, Coreia do Sul – para que cada vez mais países e blocos económicos promovam uma regulação respeitante ao desenvolvimento de IA, pelo menos no que concerne a salvaguardas e linhas vermelhas quanto aos riscos para a segurança pública da sua utilização.

Diário de Notícias
www.dn.pt