AGI e Jonas que terá 25 anos no ano 2000

Publicado a

Embora seja uma prioridade para algumas das principais empresas tecnológicas americanas, alcançar a Inteligência Artificial Geral (AGI), i.e., uma inteligência de nível similar ao humano numa generalidade de áreas, provavelmente exigirá vários avanços por etapas e desenvolver-se-á gradualmente ao longo do tempo. Estamos longe de um consenso entre os especialistas sobre quando devemos esperar a chegada da AGI. Existe uma miríade de opiniões com datas diferentes, com as previsões a mudarem significativamente nos últimos anos.

Há poucos anos, antes dos rápidos avanços nos modelos de grande linguagem (LLM), os cientistas previam-na por volta de 2060. Um inquérito de AIMultiple de 2023 junto de 2778 investigadores de IA revela que muitos deles preveem a AGI por volta de 2040. Ilya Sutskever, cofundador e ex-chief Scientist na OpenAI, prevê que a AGI possa surgir nos próximos cinco a dez anos, embora reconheça incerteza quanto a este calendário. Mais recentemente, Roman Yampolskiy, professor na Universidade de Louisville, diretor do Cyber Security Lab e um dos maiores especialistas em cibersegurança envolvendo Inteligência Artificial (IA), em setembro de 2025 previu que “provavelmente teremos robôs humanoides com flexibilidade e destreza suficientes para competir com humanos em todos os domínios” em 2030. Alguns empresários e gestores de empresas tecnológicas estão ainda mais otimistas. Elon Musk estima que “uma Inteligência Artificial mais inteligente do que o mais inteligente dos humanos” ocorra já em 2026.

Uma AGI que entenda a realidade física, tenha memória persistente e possua raciocínio dedutivo e sistémico, indo além do reconhecimento de padrões, entendendo as regras subjacentes (físicas, matemáticas ou lógicas) para resolver problemas que nunca encontrou antes, é algo que Yann LeCun, cientista-chefe de IA da Meta Platforms, acha que estamos longe, décadas longe, de atingir. Para Yann LeCun, os LLM não são um caminho direto para a AGI. Falta às IA baseadas em LLM um “modelo de mundo”. LeCun argumenta que os humanos e os animais aprendem como o mundo funciona através da observação e interação física (causalidade, gravidade, persistência de objetos). Modelos como o GPT-4 aprendem apenas a prever a próxima palavra com base em estatísticas de texto; eles não compreendem a realidade física subjacente. Pelo que, sem um modelo de mundo, a IA não consegue planear sequências complexas de ações, nem prever as consequências das suas decisões no mundo real.

Existem ainda problemas de eficiência de aprendizagem. Para LeCun, o contraste entre a aprendizagem biológica e a artificial é abismal. Uma criança de 4 anos viu cerca de 109 bytes de informação visual e já compreende conceitos complexos de física e relações sociais; um adolescente aprende a conduzir um carro em cerca de 20 horas. Por seu turno, uma IA precisa de milhares de milhões de tokens de texto (o equivalente a milhares de vidas de leitura) para atingir um nível de fluência razoável e, mesmo assim, comete erros lógicos básicos que uma criança não cometeria.

Acresce que o crescimento da inteligência dos LLM baseado na linguagem tem limites porque, como LeCun sustenta, “a maior parte do conhecimento humano não é linguística”. Tentar chegar à inteligência de nível humano (AGI) apenas através do texto é como tentar explicar a cor azul a alguém que nunca a viu. Há uma riqueza sensorial e intuitiva que o texto simplesmente não consegue capturar.

Apesar dos desenvolvimentos tecnológicos em AI, “a inteligência de nível humano exigirá a capacidade de aprender modelos de mundo, de raciocinar e de planear, e não apenas de prever a próxima palavra num texto”, como diz Yann LeCun.

Não obstante compreender-se o otimismo subjacente à redução temporal das estimativas nos últimos anos – em boa medida, provavelmente, decorrente da necessidade de manter elevado o nível das expectativas dos investidores para que os [avultados] fundos necessários continuem a afluir –, quando vejo estas previsões de mudanças radicais a ocorrer a curto prazo no mundo, vem-me à memória o filme Jonas que terá 25 anos no ano 2000.

Nas imagens iniciais deste filme de 1976 do realizador Alain Tanner, que vi num cinema em 1976 (?), a câmara vagueia durante longos segundos pela Londres que conhecíamos em 1975, até que aparece uma legenda dizendo: “Londres, ano 2000”; e constatamos que, para Alain Tanner, não haveria diferenças na paisagem urbana londrina em 25 anos.

Além das reticências de LeCun, Tanner vem relembrar-nos que a inércia social é muito poderosa e que a mudança nas sociedades ocorre de forma lenta, bem mais lenta do que muitos teorizam ou profetizam. Sobretudo quando as profecias dos Altmans e Musks propaladas aos sete ventos são muito convenientes para justificar o levantamento de biliões para investimentos em empresas de IA com uma evolução tecnológica lenta [em relação à AGI] e resultados financeiros insatisfatórios, que apenas continuam a operar com tempo emprestado graças a um massivo Ouroboros financeiro entre muitas dessas empresas.

Diário de Notícias
www.dn.pt