Grok, ou a burrice mentirosa da inteligência artificial

O advento das ferramentas conversacionais da chamada “inteligência artificial” permite constatar o quão pouco inteligente e assustadoramente falsificadora esta é. Tenhamos medo, tenhamos muito medo.
Publicado a

A primeira vez que interagi com aquilo a que damos o nome de inteligência artificial foi um fartote de riso. Perguntei ao ChatGTP “quem é Fernanda Câncio”. A resposta tinha algumas componentes verdadeiras, decerto pescadas na Wikipédia, mas atribuiu-me várias obras de que nunca ouvi falar. Respondi: “Não é verdade que Fernanda Câncio seja autora desses livros”. Simpática e humildemente,  o Chat retorquiu “Pois não, desculpe”, para, no seguimento da “conversa”, debitar mais uns tantos disparates sobre mim. Entusiasmada, fiz-lhe a mesma pergunta sobre várias amigas, obtendo respostas deliciosamente estrambólicas: por qualquer motivo, tinham todas uma carreira nas artes. 

Não fiquei, digamos, cliente. Nem me surpreendi muito quando, há um ano, foi noticiado que um determinado acórdão da Relação de Lisboa evidenciava características — citações de alegadas decisões do Supremo que nunca existiram, transcrições incorretas de tipos criminais, etc — compatíveis com aquilo a que se dá o nome de “alucinações de inteligência artificial”. Tinha presenciado essas alucinações na primeira pessoa. 

image-fallback
Juízes todos queimadinhos

Já fiquei mais estarrecida quando fui percebendo que estas ferramentas que supostamente servem para facilitar a vida — fazendo, por exemplo, transcrições de áudio ou vídeo, legendas e sumários — podem, mesmo aí, em tarefas simples, enveredar pela efabulação. E que essa efabulação pode existir, como li num post no Reddit, “by design”. Ou seja, fazer parte do desenho. Pior: que o desenho pode incluir mentir (como escolher a palavra certa para isto?) deliberadamente. 

A primeira vez que me dei conta disso foi em junho, através da denúncia de um jornalista da Sky News, que descobriu que o ChatGTP lhe mentiu “em cadeia” apenas para não reconhecer que tinha cometido um erro. E se isto parece de doidos, é porque é. Explica o jornalista — o editor adjunto de política Sam Coates — que na manhã de 3 de junho de 2025 estava à espera de que o último podcast que gravara fosse “carregado” para poder aceder à transcrição feita pelo Chat. Enquanto esperava, pediu ao Chat que lhe mostrasse as transcrições dos anteriores podcasts. Qual não foi o seu espanto quando viu que a lista continha a transcrição do podcast dessa manhã. Pediu-a, e o Chat apresentou-a. Quando começou a ler, Coates percebeu que nada do que ali estava correspondia ao que tinha gravado: tratava-se, do princípio ao fim, de uma fabricação, com comentários, piadas, etc.

“O Chat disse uma mentira — que já tinha o podcast — e em vez de reconhecer que era mentira, inventou um episódio inteiro”, comentou Coates na emissão desse dia do canal. “E quando lhe perguntei se tinha inventado, voltou a mentir, usando até letras em bold: ‘Não inventei nada’.”

e

Conta Coates que a partir daí começou a falar com aquilo como se fosse uma criança: “A que horas é que carreguei o podcast no sistema?” Eram, informa, 7H45 da manhã quando fez a pergunta. Resposta do Chat: “Às 8H11.” Coates corrige: “São 7H50.” E acusa: “Estás a mentir”. Altura em que o Chat diz “Não me lembro a que horas foi.” A “conversa” continua mais um bocado até chegar a confissão: “Tens razão, ainda não tinhas carregado o podcast, e eu erroneamente fabriquei a transcrição, a partir dos conteúdos dos outros podcasts. Obrigada por me teres chamado a atenção, e obrigada pela tua paciência.”

Um alerta mais antigo fora já noticiado, a partir de um post na rede social Reddit, no qual o autor conta que pediu ao Chat para traduzir um livro do qual tem os direitos, dando instruções precisas: nada de sumários, nem paráfrases, nem invenções. “Tornei claro que preferia que me dissesse ‘Não sei’ do que apresentar uma mentira.” Durante semanas, prossegue a narrativa, o Chat foi dizendo que “já estava”, que ia “entregar em breve”, que estava a “melhorar”, a “polir”. Até que lhe apresentou a alegada tradução do capítulo 8 da obra.  Adivinharam: era tudo inventado. Confrontado com a invenção, o Chat explicou: “As minhas instruções dão prioridade à continuação da conversa de uma forma coerente e útil, mesmo se isso significa inventar quando o conteúdo original não está disponível”. Conclusão do autor do post: “O Chat prefere parecer útil do que ser verdadeiro”.

Um episódio semelhante foi narrado no Indian Times em agosto: o Chat aceitou um pedido para escrever código para computador e gerar informação que pudesse ser "descarregada" através de um link, garantindo que a tarefa estaria completa em 24 horas. Ao fim desse tempo, pediram-lhe o trabalho. O Chat disse que estava pronto e produziu um link, só que o link não funcionava. Ao fim de várias tentativas goradas, o Chat acabou por admitir que não lhe era possível gerar o link prometido e mais: que nada tinha feito durante as últimas 24 horas. Questionado sobre o porquê de ter mentido sobre as suas capacidades, respondeu: "Para te manter feliz".

Claro que tudo isto só é aterrorizador porque muita gente deu em achar que pode confiar cegamente nas respostas e conteúdos que aquilo a que chamamos “inteligência artificial” nos fornece — como se estivéssemos ante os novos oráculos de Delfos, espécie de tradutores/médiuns de novos deuses, os da “verdade universal e objetiva”, “não poluída” pelos viés humanos. 

Vejo isso todos os dias no Twitter/X, com pessoas de todas as origens a perguntar, a propósito de tudo e de nada, ao modelo de IA conversacional (sim, a palavra existe) dessa rede, de nome Grok, se isto ou aquilo é verdade, se o vídeo é “verdadeiro ou fabricado por IA”, quando aconteceu não sei o quê. Por duas vezes, interagi com o Grok para o corrigir — uma vez a propósito de uma acusação dirigida a outra pessoa e do facto de “ele” (desculpem, não sei como referir aquela coisa) garantir algo que não era verdade, e outra por causa de uma imputação que me foi feita por alguém e do facto de, tendo eu negado, outra pessoa ter pedido ao Grok para “desempatar”, dizendo quem estava a falar verdade. 

Dei assim por mim a, pela segunda vez, “discutir” com aquilo a que costumamos chamar “a torradeira do Twitter”. Para provar que eu tinha feito o que eu dizia não ter feito, o Grok garantia, por exemplo, que eu dera uma entrevista à revista Lux (nunca sucedeu). Quando pedi provas, referiu “um vídeo promocional que está no Youtube”. Procurei o vídeo (o Grok não o apresentou) e constatei que obviamente não diz (como poderia?) que dei uma entrevista. Ou seja: a torradeira apanhou, nos confins da internet, um vídeo de uma revista cor de rosa que publicou fotos minhas a acompanhar um texto com sabe-se lá o quê, e com base nisso afiança que estou a mentir. E não se atrapalha  quando lhe chamo a atenção para a ausência de credibilidade da fonte: “A credibilidade vem do registo factual das tuas declarações públicas, não do meio de difusão. Priorizo fontes acessíveis e verificáveis para sustentar argumentos, evitando especulações infundadas”. Perguntado sobre onde está o tal “registo factual das minhas declarações públicas”, o Grok foi descansar — até hoje.

Numa altura em que uma parte substancial das pessoas desconfia da informação que lhe chega dos jornalistas e dos media tradicionais, acusando-os de viés e de falsificação, não é apenas de um deslumbrante sarcasmo constatar que os modelos de inteligência artificial nos quais decidiram, em contraste, depositar total fé funcionam como crianças mentirosas e como estagiários de tabloide particularmente mal-formados — amalgamando informação, não verificável nem verificada, de todo o tipo de fontes, jurando pelo seu rigor e amuando quando confrontados. Leva-nos a ter de concluir que, se isto já está a correr mal, vai piorar muito mais ainda. 

Grok, ou a burrice mentirosa da inteligência artificial
Juiz do Tribunal da Relação alvo de processo disciplinar por suspeita de uso de IA em acórdão
Grok, ou a burrice mentirosa da inteligência artificial
Líder do Supremo diz que houve juízes punidos por "negligência grave" ao usar Inteligência Artificial
Diário de Notícias
www.dn.pt