Inteligência Artificial: pausar ou cancelar?
OpenAI, Google, Microsoft, IBM, Amazon, Baidu, Tecent. Estes são alguns dos gigantes que lideram a corrida à inteligência artificial (IA), aos quais acrescem dezenas de pequenas startups. O ritmo com que estão a desenvolver algoritmos e a treinar os sistemas de IA, acedendo a "todo o conhecimento existente" - em termos práticos, tudo o que está na internet -, faz-nos antever um mundo novo, que tem tanto de fascinante, como de assustador.
Os chamados chatbots, que são interfaces digitais que conversam com as pessoas, por via escrita ou oral, tendo por trás potentes motores de inteligência artificial, estão a entrar nas nossas vidas. O mais célebre ChatGPT, da OpenAI, vai já na 4.ª geração da tecnologia, o GPT-4, e parece que sabe fazer tudo ou quase tudo. A boa notícia tem embebida uma má notícia, que é a possibilidade de estes sistemas se tornarem num monstro fora de controlo, que pode aceder a informação enviesada e adquirir vontade e instinto de sobrevivência próprios. Estamos a entrar em terreno desconhecido, sem regulação, própria ou imposta, e teme-se que a continuação do desenvolvimento da IA abra um capítulo de risco máximo na História do mundo e da Humanidade.
Perante isto, há três correntes de pensamento. A primeira é relativizar o risco e manter o ritmo de desenvolvimento, na esperança de que entre a autorregulação dos incumbentes e a reação dos governos e seus sistemas legislativos resulte um código de conduta que nos proteja. Há quem diga que foi assim com a generalização da internet.
"A boa notícia tem embebida uma má notícia, que é a possibilidade destes sistemas se tornarem num monstro fora de controlo, que pode aceder a informação enviesada e adquirir vontade e instinto de sobrevivência próprios."
Uma segunda linha de pensamento é a de que os riscos são reais e, por isso, é necessário suspender o desenvolvimento e os programas de treino das redes de IA. Neste sentido, um conjunto alargado de nomes relevantes da arena tecnológica, como Elon Musk e Steve Wosniak, subscreveram esta semana uma carta a recordar os sérios riscos para a Humanidade associados à criação de mentes não-humanas que possam no futuro ser mais numerosas e mais inteligentes que as nossas e nos possam tornar obsoletos. Este grupo propõe uma pausa imediata nesta corrida, por um período não inferior a seis meses, de forma a que se procure introduzir uma autorregulação do setor.
A terceira linha de pensamento é a mais alarmista e defende que uma pausa nada resolve porque não há qualquer plano ou ideia de como controlar o que está a ser criado, pelo que não vê outro caminho que não seja o de parar de imediato todo o desenvolvimento, sem exceções, quer se trate de fins civis ou militares. Esta posição foi defendida por Eliezer Yudkowsky, um consagrado teórico da IA norte-americano, num artigo publicado há dias na Time. Para ele, existe o risco real de ser criada uma civilização alienígena, capaz de pensar milhões de vezes mais depressa do que um humano, inicialmente confinada a computadores, mas que perante um mundo de criaturas "muito estúpidas e muito lentas" - as pessoas - espolete processos de criação de formas de vida artificiais, por exemplo enviando sequências de ADN para laboratórios de fabricação molecular. Estes seres super-humanos, com vontade própria e em grande número, previsivelmente exterminariam a Humanidade.
Com a vantagem competitiva que o domínio antecipado da tecnologia de IA representa, creio ser pouco provável uma paragem definitiva ou mesmo uma pausa. A curiosidade, a ambição e a ganância são sempre mais fortes do que a cautela. Falta saber se este é o caminho do paraíso ou do inferno.
Professor catedrático