Paulo Dimas: "Temos de ter leis para regular a inteligência artificial"

Vice-presidente para a Inovação da tecnológica portuguesa Unbabel, e líder do consórcio Centre for Responsible AI, elogia a capacidade dos sistemas de regulação já criados para o ChatGPT, mas reconhece as suas limitações. Paulo Dimas explica ainda como as vantagens da IA superam os seus riscos.
Publicado a
Atualizado a

Vamos falar do boom da inteligência artificial, dos seus perigos e vantagens. Há mais ou menos um mês, Bill Gates, o fundador da Microsoft, escreveu no seu blogue oficial que o uso generalizado da inteligência artificial (IA) generativa - que gera texto ou imagem, como o ChatGPT, que cria texto -, é tão disruptivo para a nossa relação com os computadores quanto foi a introdução do interface gráfico, como o Windows (ou, ainda antes, o Xerox). Concorda com esta aceção?
Concordo em absoluto. Aliás, costumo comparar este momento que estamos a viver até com um, mais recente: o da Web. Quando a Web foi introduzida, em 1994/95, assistimos a um fenómeno que foi a passagem para os cidadãos comuns de tecnologia que tinha vindo a ser desenvolvida desde o final da década de 60, a internet.

Porque a Net era usada por pequeninas comunidades...
Nos centros de investigação. Eu comecei a minha carreia nesta áreas no INESC [Instituto de Engenharia de Sistemas e Computadores], quando tinha 16 anos. Era o estagiário mais novo do INESC e contactei com todas estas tecnologias em 1986. Quase 10 anos depois começo a ver as pessoas a verem páginas na Web... Este fenómeno é muito semelhante a esse momento. A diferença é que: a inteligência artificial estava ali à espera do momento de se tornar algo utilizado em massa.

Mas no caso da IA, a adoção parece ser mais rápida ainda do que foi a da internet.
Muito mais rápida. O ChatGTP, na história da tecnologia, é o produto que cresceu mais rapidamente de sempre. Claro que hoje em dia as coisas espalham-se muito mais rapidamente, mas nunca houve na história da tecnologia nenhum produto que em dois meses alcançasse 100 milhões de utilizadores.

Atingimos aqui um tipping point, de facto, que está a mudar tudo, está a transformar a Humanidade - isto não é algo contido nas empresas de tecnologia, isto é de facto algo que está a mudar a vida das pessoas.

Mas não existe o risco de ser uma moda e as pessoas...
Não, não. Eu acho que se atingiu, de facto, aqui um salto que tem impacto fundamentalmente na forma como nós, seres humanos, desenvolvemos uma série de atividades, que vão desde atividades de produtividade, atividades ligadas à automatização, por exemplo, de serviço ao cliente, de apoio ao cliente, até a áreas criativas, às indústrias criativas. Antes, os computadores eram seres humanos, não é? Havia salas inteiras de pessoas que faziam computação, a maior parte mulheres, e todos esses empregos desapareceram. E, portanto, nós antecipávamos que, por exemplo, na área de serviço ao cliente surgissem os chatbots que automatizassem este processo. O que ninguém imaginava era que estes chatbots pudessem substituir um guionista, um argumentista, uma pessoa criativa ou um designer... O espectro abrangido pela IA é algo que nunca foi visto na história da civilização. A IA é claramente para ficar... Aliás, a Goldman Sachs, num estudo publicado há cerca de dois meses, antecipa que 300 milhões de empregos vão ser afetados pela automatização.

Mas qual será o cenário mais provável: o pessimista, de a IA ir acabar com empregos, substituindo as pessoas, ou ser uma ajudante, uma companheira de maior produtividade, que é a ideia mais otimista?
É assim: na história da tecnologia sempre houve substituição, enfim, de profissões, ao mesmo tempo que acontecia a criação de novas profissões. Eu acho que este momento não vai ser diferente de nenhuma maneira. Eu acho que vai haver muitas profissões [substituídas], quase todas as que não envolvam trabalho manual. Portanto, nestes estudos que eles referem temos um espectro de automação que vai desde cerca de 50% das tarefas, por exemplo, o trabalho administrativo ou mesmo o trabalho legal - portanto, na área do direito. Em tudo o que envolva atividades manuais, obviamente, o nível de automação [informática] vai ser muito baixo - estamos a falar, se calhar, de 3% das tarefas que podem ser automatizadas.

Agora, quer isto dizer substituir os empregos totalmente? Não, não acho. Acho que, por exemplo, na área da Saúde - que é uma área onde a Unbabel está a trabalhar no âmbito deste grande consórcio em IA responsável (ler AQUI), vai haver avanços muito significativos, com a IA generativa a assistir os médicos no diagnóstico de doenças. Mas vai sempre manter-se o papel do médico a supervisionar o trabalho da Inteligência Artificial e também ao nível da empatia com o doente. Não se antevê que uma Inteligência Artificial comece a fazer diagnósticos e a dizer ao doente: "Olhe, tem um cancro ou tem seis meses de vida". Isso nunca vai ser feito por máquinas, tem a ver com as emoções, tem a ver com a forma como os humanos interagem uns com os outros.

E na Educação, por exemplo, vê aplicação da IA nesta área?
Essa vai ser, talvez, a maior revolução que vai acontecer: na forma como nós adquirimos conhecimento. Estas tecnologias permitem a cada um de nós ter um tutor personalizado ao qual nós podemos fazer perguntas. Claro que ainda tem falhas, claro que ainda "alucina" - não é, digamos, factual por vezes -, contudo é algo que nos permite explorar o conhecimento de uma forma completamente nova. Portanto, acho que quem usa o ChatGPT tem um tutor na algibeira se o usar no telemóvel. Isso, de facto, vai acelerar imenso o conhecimento. Antigamente tinha de se ir à procura no Google, na Wikipedia, em papers e isso tudo. Agora podemos perguntar a um paper para ele nos explicar, como se fossemos uma criança [risos]. Isto é uma coisa incrível.

A internet deixa de ser um repositório de informação, passa a ser um diálogo...
Sim. Esse é outro dos aspetos que foi determinante para a adoção tão rápida desta tecnologia. A interface com o utilizador é conversacional. E todos nós, desde que nascemos, sabemos conversar [risos]. Outro aspeto foi a questão da eliminação de conteúdos tóxicos, de conteúdos que têm preconceito, de uma série de riscos, conteúdos que podem, inclusive, ameaçar a nossa própria espécie...

E como é que conseguem isso?
Conseguiu-se através - desculpe o jargão... - daquilo que se chama reinforcement learning using human feedback, que descodificando para português é colocando humanos, no fundo, a ensinarem como quase tutores da IA e a dizer-lhe: "Olha, não podes explicar como é que se fabrica uma bomba. Não podes discriminar entre pessoas de raças diferentes ou de géneros diferentes. Não podes..." E, ao criar esta camada daquilo que se chamam de instruções, é ao ir fazendo um alinhamento do modelo com base em instruções humanas, que este deixou de ter estes conteúdos tóxicos. Quando estamos na fase inicial de criação do modelo, o que acontece é um consumo desenfreado de tudo aquilo que aparece, na internet, ou em livros ou em tudo o que são as fontes de informação usadas. E muitos desses conteúdos têm muito preconceito, são conteúdos tóxicos, são conteúdos A que nós não queremos que uma criança tenha acesso. A introdução desta camada, a que em inglês chamamos guardrails, salvaguardas, foi o que permitiu, conjugado com a facilidade de utilização, que isto se tornasse uma coisa tão pacífica.

Mas esses humanos são especializados ou são utilizadores em geral?
O primeiro avanço, no início do ano passado, foi numa escala muito pequena. Foram contratadas 40 pessoas pela OpenAI que estiveram a reclassificar os resultados do modelo.

Mas agora, com a integração na Microsoft...
Com a Microsoft, agora, aumentou muito a escala e há muito mais humanos... Mas continuam a ser equipas especializadas... Continuam a ser equipas especializadas, porque aqui, na inteligência artificial, um dos aspetos absolutamente fundamentais, e especialmente ao nível da criação desta camada, é a qualidade dos dados. Nós, por exemplo, podemos pensar ingenuamente que, quando estamos a usar o ChatGPT e dizemos que isto não está bem e corrigimos, que isso é tido em conta para treinar o modelo, que ele está a aprender com o feedback de pessoas comuns como nós. Mas não, isso não acontece. Isso são apenas sinais que [os especialistas] usam depois para questões de consistência, questões de alinhamento...

Mas isso não resulta em a IA refletir as convicções de quem estabelece as guardrails?
Sim, sim. Essa é uma questão fundamental que está a ser muito discutida, que tecnicamente tem a ver com o alinhamento do modelo. Estes têm sempre o preconceito dos humanos que os alinharam. É impossível fugir a isso, todos os humanos têm os seus preconceitos. A OpenAI assume, aliás, pelo [CEO] Sam Altman, que o primeiro modelo que eles criaram tinha um bias democrata. Aquilo claramente favorecia o Partido Democrata. E se calhar ainda tem, porque a equipa que está por trás da OpenAI não é propriamente grande apoiante do Trump, imagino... [Risos] Agora, isto é correto? É aceitável? Enfim...

Ao mesmo tempo, desde que eles sejam transparentes quanto a isso...
Precisamente. A questão é a transparência, é mostrar como é que esse alinhamento foi feito, que pessoas é que o fizeram.

Mas tudo isto chega ou é preciso regular a IA?
Nós temos de regular a Inteligência Artificial.

Como?
Enfim, com leis. [Risos]. Existe uma iniciativa a nível europeu, o European AI Act, que pretende e que vai passar a legislação europeia nos próximos dois anos e que vai regular o uso da Inteligência Artificial. Por exemplo, a obrigatoriedade da transparência - se tivermos uma fotografia que foi gerada por IA, tem de ser dito que foi assim gerada, se temos um chatbot, que não é humano, que está a responder, tal tem de ser dito. No fundo tem de haver aqui leis.

Mas os governos têm capacidade para isso? Ou isto tem de ser supragovernamental?
Sim, a tendência que se está a observar é haver um alinhamento entre a Europa, os Estados Unidos, o Reino Unido em iniciativas muito similares para regular este tipo de produtos em massa.

Mas acredita que as pessoas, muitas vezes, compreendem sobre o que estão a falar quando comentam a IA? Por exemplo os chatbots, por muito sofisticados que pareçam, na realidade são ferramentas limitadas, não são inteligência artificial geral... Já agora, peço-lhe que nos explique a diferença entre a inteligência artificial como temos hoje e o que seria ou o que será, hipoteticamente, inteligência artificial geral (IAG).
A inteligência artificial geral seria uma inteligência artificial que ultrapassa aquilo que nós, seres humanos, conseguimos fazer, no sentido em que ela própria se pode recriar e alcançar um nível de autonomia que a torna independente do ser humano. Há quem compare isso ao momento da singularidade, o momento em que se atinge, digamos, um ponto em que as máquinas fiquem autónomas e decidem por si próprias.

E não estamos lá de todo.
De todo, de todo. Este paradigma que está aqui, neste momento, a ser aplicado neste tipo de cenários está limitado, tem as suas barreiras. Por exemplo, fala-se muito da questão da consciência, se estes sistemas de IA são conscientes e se sabem do que é que estão a falar. Isso não é verdade. No fundo eles consumiram biliões daquilo que se chamam tokens ou palavras, das mais diversas fontes - de livros, da Wikipedia, de páginas web em geral -, e, na prática, o que fazem é, com as tais instruções que nós lhes damos, eles repetem algo que viram a certa altura dentro de um contexto específico, aquele texto. Eles estão limitados a isso. No exemplo da consciência - se fizéssemos, por absurdo, o exercício de eliminar todos os textos que falam de consciência, do que é a consciência, todos os livros sobre consciência, todas as páginas da Wikipedia sobre consciência, o ChatGPT deixava de saber sequer o que é a consistência. Na prática esta qualidade humana, que é a consciência, e que tem muito a ver com a questão da vida, com a questão da regulação da vida e das emoções e dos sentimentos e tudo isso - o António Damásio fala muito nesta ligação entre a consciência e aquilo que ele chama os sentimentos homeostáticos, os sentimentos que controlam a vida -, isso não existe numa máquina. Claro que existem pessoas que têm teorias mais computacionais e que acham que a consciência pode ser transformada num algoritmo de computador e que, portanto, pode ser dissociada de um corpo. Isto é uma discussão mais filosófica depois, mas a minha opinião é que não, se não estivermos a falar de vida, não podemos estar a falar deste tipo de autonomia.

Dito de outra forma, aparentemente eles raciocinam, porque juntam dados, mas não pensam.
Exatamente, eles não pensam... A questão é, depois nós entramos aqui muito na questão da definição destes termos. O que é pensar? Será que pensar é aquilo que um aluno faz quando, por exemplo, está a resolver um problema de matemática ou está a resolver um exame para entrar numa faculdade? Isso ele consegue fazer. Eles raciocinam nesse aspeto. Agora, a definição rigorosa destes termos... Por exemplo, será que eles compreendem? Isso são tudo definições que têm de ser muito bem revistas, porque uma das consequências dos seres humanos é atribuir comportamentos humanos, portanto, antropomorfizar...

Mas dificilmente terão sentido de si próprios.
Claro, eles não têm sentido de si próprios. Agora, é natural que as pessoas tenham receio e já há quase uma seita, pessoas que acreditam que o ChatGPT vai exterminar a Humanidade. Mas isso é natural, no sentido em que sempre aconteceu na história dos seres humanos. Se formos a ver, há uma capa da revista Life, da década de 60, quando se começou a antecipar que iria ser possível haver robôs, eles rapidamente começaram a pensar: os robôs vão matar os seres humanos. [Risos]. Mas é mais fácil os seres humanos matarem-se a si próprios do que a Inteligência Artificial nos matar a nós.


============2021 - Postit 1 (11729009)============
Tecnologia
============2021 - ASSINATURA (11729010)============
entrevista
============2021 - Destaque - Discurso Direto (11729014)============

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt