ChatGPT. O prodígio da Inteligência Artificial é "empolgante", mas é preciso ter cuidado com "efeitos secundários"
Modelo de IA ultrapassou um milhão de utilizadores em poucos dias e responde a todo o tipo de perguntas em português correto. Estaremos no início de uma nova revolução?
O lançamento da versão beta do ChatGPT, um modelo de Inteligência Artificial criado pela empresa norte-americana OpenAI, criou uma das maiores ondas de entusiasmo dos últimos tempos quanto às potencialidades da tecnologia.
Relacionados
Baseado no modelo GPT-3.5 (Generative Pre-trained Transformer versão 3.5), o ChatGPT funciona como um bot de conversação ao qual é possível fazer perguntas e obter respostas em poucos segundos. Depois de criar uma conta, o interface é simples: há uma caixa para fazer perguntas e a resposta surge como se houvesse alguém a escrevê-la em tempo real do outro lado. É possível ter conversas em português de Portugal porque o protótipo é multilingue e adapta-se ao utilizador. Ou seja: se alguém começar uma conversa em inglês e depois mudar para português, o ChatGPT ajusta-se e começa a responder em português. Essa é uma das suas características mais notáveis, disse ao DN Paulo Novais, professor do Departamento de Informática e investigador no centro ALGORITMI, na Escola de Engenharia da Universidade do Minho.
"É extraordinário. Comecei a falar em português e a partir dali respondeu sempre em português", afirmou o especialista. "Estava a responder-me numa linguagem simples, mas bem escrita."
Subscreva as newsletters Diário de Notícias e receba as informações em primeira mão.
Se o sistema responder em português do Brasil, basta pedir-lhe que mude para português de Portugal. É como ter uma conversa, mas de forma mais credível do que os bots de conversação a que nos habituámos.
Gerd Leonhard prevê uma moratória no desenvolvimento da Inteligência Artificial dentro de 10 anos, não porque as máquinas vão ganhar consciência humana, mas porque poderão talvez simular o que os humanos são. "E isso é, provavelmente, ainda mais perigoso".
"É empolgante", caracterizou Paulo Novais, elogiando o trabalho feito pela OpenAI. "É um marco não tanto pela novidade do ponto de vista tecnológico, porque este tipo de técnicas tem vindo a ser já apresentado noutros sistemas, mas porque o que está aqui é um trabalho de aplicação a um nível quase planetário."
O manancial de conhecimento que alimenta o ChatGPT é tão vasto que o sistema consegue conversar e dar informação sobre todo o tipo de tópicos. "Eles devem ter carregado as Wikipédias todas", gracejou o investigador. "O sistema tem muitos dados que consegue analisar e nalguns momentos faz citações."
Este aspeto é algo que Euclides Lourenço Chuma, membro sénior do Instituto dos Engenheiros Elétricos e Eletrónicos (IEEE, sediado em Nova Iorque), também indica. "Não há avanço real na IA", considerou, mencionando que há outras ferramentas conversacionais como o IBM Watson Assistant e o Google LaMDA. "O mais importante no ChatGPT são os modelos de IA de processamento de linguagem, com 175 mil milhões de parâmetros, e a base de dados, com 570 gigas de dados obtidos a partir de livros, textos da web, Wikipédia, artigos, e outros textos na internet, com 300 mil milhões de palavras."
A riqueza da informação é a grande mais-valia. Gerd Leonhard, fundador da The Futures Agency e autor de vários livros sobre tecnologia, salienta a forma notável como o sistema de base funciona. "Tenho estado a testá-lo e penso que é incrível", disse o futurista ao DN. "É potencialmente a próxima geração de motores de busca."
Leonhard salientou a rapidez com que o sistema gera respostas com informações relevantes. "Tem a aparência de ser muito inteligente e muito humano", continuou, descrevendo-o como "basicamente um mecanismo de pesquisa muito sofisticado e detalhado."
O manancial de conhecimento que alimenta o ChatGPT é tão vasto que o sistema consegue conversar e dar informação sobre todo o tipo de tópicos. "Eles devem ter carregado as Wikipédias todas", graceja o investigador Paulo Novais.
Ainda assim, o sistema tem limitações, como dar erro quando há muita gente a utilizá-lo ou recusar-se a responder a uma pergunta demasiado subjetiva, mas a própria OpenAI explica que este é um modelo experimental que ainda está a aprender. E há avidez por isto: o ChatGPT ultrapassou um milhão de utilizadores nos primeiros cinco dias desde que ficou disponível e a OpenAI tem estado a tentar estabilizá-lo para que ocorram menos erros.
Qualquer utilizador que cria uma conta para aceder ao bot vê uma mensagem da empresa a explicar que isto se trata de um protótipo de pesquisa gratuito e o objetivo é recolher feedback para melhorar o sistema. Há aqui um aviso importante: "Embora tenhamos salvaguardas em vigor, o sistema pode ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdos ofensivos ou tendenciosos", avisa a OpenAI. "Não se destina a dar conselhos."
Aqui reside um dos maiores perigos desta tecnologia.
Fraude em grande escala
"O ChatGPT pode ser usado para enganar as pessoas a uma escala maciça", avisa Euclides Lourenço Chuma. "As pessoas podem pensar que estão a conversar com outras pessoas, mas estão a falar com o ChatGPT e a fornecerem informações pessoais que serão usadas em esquemas fraudulentos."
O risco existe porque o sistema funciona de forma polida e dá respostas com aparência de inteligência humana, além de que é difícil evitar que uma tecnologia seja usada para fins nefastos. A OpenAI avisa os utilizadores para não partilharem "informações sensíveis" nas conversas com o sistema.
Kit Walsh, advogada e diretora assistente da Electronic Frontier Foundation (EFF), explicou ao DN que é preciso ponderar os riscos, juntamente com os benefícios, da Inteligência Artificial, que este ano tem registado avanços notáveis não só ao nível do texto, mas também da geração de arte a partir de imagens e vídeos.
"A tecnologia IA inclui muitas promessas de melhorar a criatividade humana, mas requer uma abordagem cuidadosa para realizar o seu potencial sem causar danos", afirmou a responsável. "Apesar destes cuidados, não queremos perder de vista o potencial positivo de facilitar o processo de criação das pessoas."
Walsh indicou que um dos pontos fracos mais consistentes da IA é que reproduz, de forma intrínseca, os preconceitos que possam estar embebidos nos dados usados para a treinar. "No caso de IA que produz texto, isto pode levar a respostas que incorporam uma visão dominante da era refletida nos dados usados para a treinar, em vez de resultados que realçam as experiências minoritárias ou desafiam o statu quo dessa era."
Os preconceitos na IA são problemáticos e há várias iniciativas em curso, da IBM à Google e outras gigantes, para evitar que deturpem os modelos que estão a treinar. Ao passo que um professor pode fazer uma autorreflexão e examinar potenciais preconceitos na matéria a dar, o computador fará apenas aquilo que for treinado para executar. Mas fá-lo-á com tanta autoridade que o utilizador poderá confiar demasiado nas respostas, perdendo o sentido de pensamento crítico. Essa é outras das dificuldades identificadas pelos especialistas.
Ascensão das máquinas
"O problema é que as pessoas confiam demasiado na máquina, porque pensam que é superinteligente, feita por programadores inteligentes e, por isso, é A verdade", explicou Gerd Leonhard. "É um antropomorfismo, quando pensamos que a máquina é humana", continuou. "Pensamos que é até melhor porque é uma máquina, que não tem preconceitos, nem sentimentos."
O futurista considera que o avanço da IA é benéfico e levará a progresso económico e social. "Mas também temos de entender quais são os efeitos secundários", disse. "Não podemos deixar que os nossos filhos cresçam a acreditar que o que está dentro da máquina é superinteligente e tem todas as respostas." Será preciso reforçar a necessidade de fazer perguntas e ponderar, "ao invés de seguir cegamente a tecnologia".
Isso é algo que Kit Walsh refere. "A IA pode dar a aparência de conhecimento ou imparcialidade quando produz respostas imprecisas", frisou. Este problema deve ser endereçado, "educando os utilizadores sobre os limites do sistema".
E muito dependerá da qualidade dos dados que forem usados e de quem decide da sua credibilidade, o que é um desafio cada vez maior. "Estamos com um problema de saber, em cada contexto, quem são as pessoas credíveis", sublinha Paulo Novais. "Temos de ter capacidade de coar a informação, de perceber quando ela pode ser útil ou não e credível ou não."
O investigador considera que este tipo de sistemas aproxima a IA da condição humana e isso é interessante, mas requer cuidados. "Mais uma vez se nota que quem tem acesso aos dados neste novo mundo é o detentor do poder, para o bem e para o mal."
Para que serve, então?
Sistemas como o ChatGPT serão úteis em várias áreas para auxiliar os humanos. Euclides Lourenço Chuma sugere utilidade na escrita e correção de códigos de programação, e na deteção de problemas ou vulnerabilidades neles. Também aponta para o uso do ChatGPT na tradução, uma vez que pode ser usado para derivar respostas em várias línguas de uma só vez.
Gerd Leonhard considera que este avanço é "potencialmente um grande concorrente de motores de busca" e Paulo Novais aponta para a capacidade de discernir a informação e gerar conhecimento na base da sumarização. Já a firma de cibersegurança Naoris Protocol chama-lhe um game changer para a Web3, com saldo positivo ao nível da segurança no longo prazo, apesar dos riscos de curto prazo que se assomam.
E quanto ao debate sobre a possibilidade de que a IA se torne consciente e constitua uma ameaça? Paulo Novais considera que ainda estamos longe disso e o que sistemas como este fazem é sobretudo "aumentar a ilusão de uma possível consciência."
Gerd Leonhard diz, ainda assim, que é preciso ter salvaguardas. "O que precisamos das máquinas é que sejam competentes", frisou. "Se desenvolvemos a IA para que seja competente, então pararemos de a desenvolver a um certo ponto". É o argumento do professor Stuart Russell, da Universidade Estadual da Califórnia, em Berkeley, no livro Human Compatible. Leonhard prevê uma moratória no desenvolvimento da IA dentro de 10 anos, não porque as máquinas vão ganhar consciência humana, mas porque poderão talvez simular o que os humanos são. "E isso é, provavelmente, ainda mais perigoso."
Partilhar
No Diário de Notícias dezenas de jornalistas trabalham todos os dias para fazer as notícias, as entrevistas, as reportagens e as análises que asseguram uma informação rigorosa aos leitores. E é assim há mais de 150 anos, pois somos o jornal nacional mais antigo. Para continuarmos a fazer este “serviço ao leitor“, como escreveu o nosso fundador em 1864, precisamos do seu apoio.
Assine aqui aquele que é o seu jornal