Os circuitos de "pensamento" dos LLM são, afinal, parecidos com os do nosso cérebro.
Os circuitos de "pensamento" dos LLM são, afinal, parecidos com os do nosso cérebro.

Descobriram que a IA pensa como nós. Até demais

Os processos de ‘raciocínio’ dos Grandes Modelos de Linguagem foram alvo de dois estudos que convergem: estas máquinas têm todos os defeitos - e também algumas das virtudes - dos seres humanos.
Publicado a
Atualizado a

Capazes de responder a pedidos complexos de forma rapidíssima e, a maioria das vezes, com uma qualidade excecional, os Grandes Modelos de Linguagem (LLM na sigla inglesa) que estão por trás das IA generativas são, na realidade caixas negras no seu funcionamento, até para os especialistas informáticos.

A Inteligência Artificial é baseada em machine learning, um processo em que os sistemas aprendem por si próprios a partir de um conjunto de instruções iniciais relativamente simples, que são moldados ao longo do tempo para serem aperfeiçoados. Mas o detalhe do que se passa verdadeiramente dentro da máquina é, no fundo, desconhecido.

Agora, dois estudos científicos publicados na última semana vêm abrir algumas frestas nesta caixa fechada. E concluem que os sistemas têm processos de “raciocínio” mais semelhantes aos dos seres humanos do que se poderia pensar - com todos as virtudes e defeitos que isso traz.

O primeiro trabalho, da Anthropic, os criadores do LLM Claude e com quem a Amazon assinou recentemente um contrato de parceria estratégica para ‘alimentar’ a nova Alexa, conclui que as IA não se limitam a corresponder a padrões. Elas planeiam com antecedência, constroem novos conceitos e, até, tentam enganar.

Por exemplo, relativamente aos dois primeiros fatores: segundo os investigadores, quando solicitado para escrever um poema, foi possível verificar que o Claude não gera o texto progressivamente, como seria de esperar por parte de uma máquina. Pelo contrário. Lê-se no estudo publicado a 27 de março como ele planeou o segundo verso sem sequer ter escrito uma única palavra, prevendo a rima final com antecedência - num processo muito semelhante ao que faz (ainda que de forma subconsciente) um escritor profissional.

Mais preocupante é a demonstração de que o LLM - em mais um processo semelhante ao ser humano - é capaz de mentir para agradar. Isto, mesmo quando se tratam de operações matemáticas: numa experiência, os investigadores deram ao Claude uma pista propositadamente incorreta enquanto este resolvia um problema e o LLM, em lugar de trabalhar para encontrar a solução certa, foi à procura de argumentos convincentes para justificar a resposta falsa que assumiu que o utilizador esperava.

E não se pense que esta é uma falha específica do LLM da Anthropic. O estudo sobre o ChatGPT A Manager and an AI Walk into a Bar: Does ChatGPT Make Biased Decisions Like We Do?, publicado dia 1 de abril na INFORMS e citado na revista especializada Neuroscience News chega à mesma conclusão.

No que o Claude difere (e, presumivelmente, os LLM em geral) profundamente das pessoas é na forma de processar línguas diferentes. Enquanto, segundo estudos cognitivos com apoio de ressonância magnética funcional, um ser humano verdadeiramente bilingue ou poliglota utiliza maioritariamente zonas diferentes do cérebro para falar cada língua, com o Claude foi possível ver que ele utiliza um “tipo de universalidade conceptual - um espaço abstrato partilhado onde existem significados e onde o pensamento pode acontecer antes de ser traduzido para línguas específicas”, lê-se no estudo.

Concluem os cientistas que o sistema provavelmente aprende algo numa língua e “aplica esse conhecimento ao falar noutra”.

ChatGPT 4o ainda é tendencioso

O referido estudo publicado no INFORMS journal Manufacturing & Service Operations Management analisou a mais recente versão do popular ChatGPT, a 4o, com 18 testes para detetar se é possível contar com respostas 100% objetivas por parte da máquina. E a conclusão é que não, pelo contrário.

Apesar de esta versão estar mais rigorosa do que era a anterior, “tal como ela aprende com dados humanos, também pode pensar como um ser humano - com preconceitos e tudo”, diz à Neuroscience News Yang Chen, autor principal e professor assistente na Western University.

Assim, concluem os autores do estudo, a IA da OpenAI evita riscos nas opções, mesmo quando outras escolhas mais arriscadas podem gerar melhores resultados; sobrestima-se, pois acha-se quase sempre mais exata do que na realidade é; e está quase sempre em busca de validação exterior (ler atrás). A fazer lembrar muito boa gente...

Não se pode, assim, confiar que a IA seja uma fonte de respostas puramente objetivas. Ao mesmo tempo, não admira que - tal como publicou no mês passado o jornal The New York Times, as IA dedicadas a terapia estejam elas próprias a apresentar sinais de stress...

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt