Bertrand Meyer: “A IA não tem nada a ver com inteligência”
Há palavras e expressões que mudam de significado com o tempo, mesmo em poucas décadas. Apesar de a tecnologia ser, na perspetiva da História, algo extremamente recente, inteligência artificial no início significava coisa diferente dos sistemas que hoje invadem todo o nosso dia a dia.
“IA é um termo que foi criado por John McCarthy na Universidade de Stanford” nos anos 50, lembra ao DN Bertrand Meyer. “E tinha a ver com raciocínio lógico: fazer um enorme esforço para codificar regras lógicas na máquina. Falhou miseravelmente.”
Isto porque “a vida é demasiado complexa”, continua o professor e engenheiro informático francês, que em 1985 criou a estratégia de desenvolvimento de software Design by Contract, que ainda hoje é utilizada, bem como a linguagem de programação Eiffel. “Era a abordagem correta, mas falhou. O mundo é demasiado complexo para reduzir a regras.”
Esta era a velha IA. A IA atual “usa a mesma expressão, mas é toda uma nova tecnologia, que absolutamente nada tem a ver com a outra. Até o nome é um erro. Não tem nada a ver com inteligência. Na realidade, devia chamar-se Machine Learning por análise estatística em larga escala ou algo parecido”.
Isto porque o que as IA atuais fazem é precisamente isso: analisam estatísticas, frequências, em enormes bases de dados - quanto maiores, melhores os resultados - e respondem de acordo com essas contabilidades.
“Tudo é possível através de análise estatística”,como explica Bertrand Meyer. “O que [estes sistemas] fazem é muito impressionante, fantástico, mas na realidade não há aqui nada de novo: é álgebra linear, do século XIX, e, claro, com toda a informação da Web: o facto de terem acesso a biliões e biliões de dados dá-lhes a possibilidade de obterem as respostas para velhas questões. Mas devemos sempre lembrar-nos que eles estão sempre a reproduzir padrões estatísticos que já funcionaram no passado. Nenhum destes sistemas está a fazer pensamento lógico.”
Esta realidade tem consequências profundas a todos os níveis. Desde logo explica por que razão as IA, “de vez em quando, entram em alucinação, como vulgarmente se diz”. Depois, como qualquer cientista poderá assegurar, esta é a garantia de que nunca serão capazes de “ganhar consciência” e tomar conta do mundo...
Mas também, demonstra Bertrand Meyer, resultam em péssimas máquinas capazes de escrever código... máquina.
Incapazes de escrever na perfeição
O engenheiro informático voltou a fazer enormes ondas entre os pares há cerca de um ano quando declarou - e exemplificou - como o ChatGPT não é capaz de fazer programação de forma eficiente. E enquanto seguirem o atual modelo nunca será, sustenta.
Em Lisboa esta semana para a 46.ª edição da International Conference on Software Engineering (ICSE24), um dos mais importantes encontros mundiais de especialistas do ramo, que decorreu no Centro Cultural de Belém - onde concedeu a entrevista ao DN -, Meyer fez parte de um painel em que se discutiu por que os sistemas de IA são mais bem utilizados para apanhar bugs de programação do que para criar código original.
“Há, obviamente, áreas em que os modelos de IA generativa [como o ChatGPT] são fantásticos. A tradução automática, por exemplo, que se pensava ser impossível, está hoje quase perfeita. Ou na análise de radiografias, em que os sistemas são capazes de encontrar desvios que por vezes um ser humano não encontra.” Mas as coisas são diferentes quando toca a escrever código. É que este “tem mesmo de ser perfeito, lógico”. E isso os LLM - Large Language Modules, que são a base da IA, não conseguem fazer. “Eles não são ferramentas de lógica, são ferramentas de linguagem, e essa é a sua limitação fundamental”, afirma Meyer.
O professor e programador francês reitera hoje aquilo que disse e escreveu há um ano: os LLM (como o ChatGPT e outros) não são verdadeiramente capazes de criar programas informáticos originais genuínos, tentam fazer copy paste de códigos que encontram noutros lados tentando o resultado pedido. O resultado é código com muitas falhas (bugs) que acaba por se tornar inutilizável.
“Fiz essa demonstração porque a ciência e a tecnologia avançam essencialmente através da negativa - pela negação. É o método socrático. É através da negação da ideia inicial que é possível haver evolução”, explica ao DN o cientista. “Hoje começa a criar-se a ideia de que a programação em breve já não será necessária, que as LLM vão fazer tudo sozinhas... Lembro-me do tempo em que as pessoas, na Suíça, diziam aos filhos que não valia a pena aprenderem Engenharia Informática porque todos os empregos bem pagos iam para Bangalore. Claro que isso não aconteceu. Hoje corremos o mesmo risco!”
Meyer não menospreza o valor da IA enquanto ferramenta de trabalho para os programadores, mas enquanto auxiliares, em especial “para caçar bugs, testar o software”. Até porque, mesmo que a IA “dê falsos positivos” - ou seja, encontre erros onde eles não existem -, mais vale isso do que não encontrar os erros que de facto existem”.
Já quanto a escrever na perfeição, os imperfeitos seres humanos continuam a ser melhores do que qualquer máquina. Desde logo porque têm a capacidade de olhar para trás e ver que não o fizeram corretamente - e corrigir. E depois porque fazem aquilo que nenhuma máquina é, de facto, capaz de fazer: ser criativos.