Paulo Dimas admite que o que se está a fazer com a IA, insp+irada no cérebro humano, é criar máquinas á imagem do Homem e que isso não faz sentido.
Paulo Dimas admite que o que se está a fazer com a IA, insp+irada no cérebro humano, é criar máquinas á imagem do Homem e que isso não faz sentido.FOTOS: Leonardo Negrão

Paulo Dimas: “Na IA, estamos a assistir verdadeiramente a uma corrida ao armamento energético”  

O líder do Centro para a Inteligência Artificial Responsável em Portugal está preocupado com a sustentabilidade e alerta: “O futuro da IA passa muito por utilizar fontes de energia como a nuclear.”
Publicado a
Atualizado a

Centro para a Inteligência Artificial Responsável está a criar um ecossistema de IA à escala nacional, aberto aos centros de investigação, a startups e a mais domínios de aplicação para além da saúde, do turismo e do retalho. Paulo Dimas, vice-presidente de Inovação da Unbabel, empresa que lidera este consórcio, defende quatro pilares para a IA responsável: confiança, equidade, privacidade e sustentabilidade.

Antes de mais, o que é isto de Inteligência Artificial (IA) responsável? Subentende-se que há ameaças que justificam afirmá-la como “responsável”?
Sim, a IA traz atrás de si determinados riscos quando é utilizada. O primeiro risco é o de não ser factual - estamos a falar especialmente da IA generativa, que pode gerar respostas que não são factuais, que são inventadas, que são criativas e que resultam da forma como o modelo foi treinado. É fundamental que a IA seja confiável e isso passa muito por uma área de investigação, que é a explicabilidade. É fundamental dar essa capacidade à IA. As redes neuronais, que se chamam caixas negras com biliões de parâmetros - que, no fundo são números - é um modelo matemático que não tem essa capacidade de explicar. E ao não ter essa capacidade de explicar, não é confiável. O que em certos domínios, como na área da saúde, quando estamos a fazer um diagnóstico a um doente, enfim, é um risco. Além de ser criativa e de inventar, ela também não sabe o que não sabe, o que também é um risco que está associado a este primeiro pilar da IA responsável, que é saber que não sabe dar uma resposta a uma determinada pergunta - tecnicamente é o hedging, que é dizer: eu acho que é, mas não tenho a certeza. E ela nunca diz isto. Este é o primeiro pilar da IA responsável. O segundo é o da equidade, que é o de não discriminarmos. Nós não podemos ter uma IA que atribui um crédito bancário diferente a um homem ou a uma mulher. Não pode discriminar pelo sexo. Ou que, numa entrevista de emprego, a discrimina pela raça ou pelo estatuto social. Um terceiro pilar é o da privacidade. Num caso concreto de uma aplicação na área da saúde, um modelo de IA pode ajudar a salvar vidas, mas não pode ser usado para eu obter dados de saúde de uma pessoa em particular. Temos de garantir a privacidade dos utilizadores. E, finalmente, um quarto pilar, cada vez mais importante, é o da sustentabilidade, de nós termos uma IA que use a energia de forma eficiente, responsável. Nós estamos a assistir verdadeiramente a uma corrida ao armamento energético. A Microsoft contratou, no final do ano passado, uma diretora de Tecnologia Nuclear. Vê-se que o futuro da IA passa muito por utilizar fontes de energia como a nuclear. Portanto, é fundamental trabalhar na área dos algoritmos de IA no sentido de usar a energia de uma forma mais eficiente.

E quais são os esforços nesse ponto da sustentabilidade?
Aí posso falar de um projeto de investigação no âmbito do Centro para a IA Responsável que tem a ver com ter modelos inspirados no cérebro humano para, digamos, endereçar esse desafio.

É uma startup que o está a fazer?
É um centro de investigação, em Coimbra, que está a trabalhar nesse domínio, brain inspired models. Mas também temos a Fundação Champalimaud, que está a trabalhar na área da neurociência, na interceção da neurociência com a consciência artificial. Nós sabemos que o cérebro humano consegue fazer inferências, portanto, consegue estar aqui a ter esta conversa, consumindo uma energia na casa dos 20 watts. Mas um supercomputador como o de Barcelona, que é usado, por exemplo, pela Unbabel para treinar Large Language Models (LLM), consome oito megawatts, que é o equivalente a alimentar cinco mil famílias. Temos aqui uma disparidade enorme entre a eficiência natural do cérebro humano e a eficiência da IA, das redes neuronais artificiais.

É possível calcular a energia consumida por cada vez que fazemos uma pergunta ao ChatGPT?
É possível, porque o que acontece é que para fazermos essa inferência, que é, no fundo, prever a próxima palavra, para não usar um termo muito técnico (token), temos de fazer uma enorme quantidade de operações matemáticas, de multiplicação de matrizes, que consome uma determinada energia, porque isto depois corre naquilo que chamamos de GPUs, que são uns processadores especializados neste tipo de operação, e cada um deles consome uns watts de energia.

É por isso que a NVidia teve uma valorização gigantesca (registada antes da queda, agora, na bolsa de Nova Iorque)?
Precisamente, porque foi graças a este hardware que nós conseguimos ter este tipo de escala na computação.

Faz muitas comparações com o cérebro humano e é natural. É por essa razão também que o neurocientista António Damásio se junta a este consórcio?
Sim, nós convidámos o professor António Damásio por acreditarmos que os avanços da IA vão continuar a ser inspirados no cérebro humano. Historicamente, desde a década de 50 que a IA sempre foi, digamos, imaginada, desenhada, arquitetada com inspiração no cérebro humano. As redes neuronais são claramente inspiradas no nosso cérebro, são compostas por unidades, que tentam replicar os neurónios humanos, que estão ligadas entre si. O que no cérebro humano corresponde às sinapses que ligam os neurónios naturais. Foi inspirado neste modelo que a primeira rede neuronal foi aplicada, o perceptron, por Frank Rosenblatt na década de 50. Ele queria perceber como é que o cérebro da mosca da fruta funcionava. E foi assim que surgiu o perceptron, que ainda hoje, obviamente com muitos avanços, é aquilo que nós usamos. Já foi há 70 anos que isso foi criado. Por exemplo, o mecanismo dos transformers, que é a arquitetura de redes neuronais que fez com que o chat fosse possível, é um mecanismo que se baseia muito no conceito de atenção, que também é uma característica do cérebro humano. O artigo talvez mais importante da última década foi um cujo título era Attention is All You Need [escrito por oito cientistas da Google em 2017]. O professor António Damásio tem filosofado, como ele gosta de dizer, porque estamos num domínio que é, digamos, impossível de provar com a ciência que temos hoje, tem pensado muito sobre o tema da consciência. O tema da consciência, para nós, é absolutamente determinante para o futuro da IA. Nós achamos que, no fundo, só quando as máquinas atingirem uma capacidade de consciência, que é algo que os seres humanos desenvolveram ao longo de centenas de milhares de anos, é que nós vamos conseguir ter uma IA que tenha iniciativa, autonomia, que tenha agência, que é um termo que às vezes é referido, que tenha vontade. E isso nós nem sabemos se vai ser possível que aconteça.

Mas será mais perigosa ou não?
Numa hipótese absolutamente teórica de acontecer, é uma IA que, enfim, terá autonomia própria e, portanto, tem de ser fundada em princípios de colaboração - podemos ir aqui buscar as leis do Asimov [as três leis da robótica criadas por Isaac Asimov]. Tinha de haver uma espécie de Constituição dessa IA que garantisse que ela nunca seria nociva para um ser humano.

Acima de tudo uma IA super-responsável.
Super-responsável, sim. A grande questão é se alguma vez iremos conseguir fazer isso com a tecnologia que conhecemos hoje e que se antecipa que venha a ser desenvolvida. Porque a grande discussão filosófica aqui é se, para alcançarmos essa consciência artificial, é necessário termos vida, termos um corpo vulnerável. A consciência existe para regular o corpo humano, tem muito a ver com os nossos sentimentos, com as questões da homeostasia, com o nosso equilíbrio, com a nossa sobrevivência, por um lado, e com o nosso bem-estar, por outro. Quando temos prazer com o que estamos a fazer, isso são atributos que são, digamos, da vida e não necessariamente só da humana. Muitos animais têm consciência. Não são só os seres humanos. E, portanto, uma máquina que não corre o risco de morrer, que não precisa de sobreviver, possivelmente nunca desenvolverá este tipo de característica. Claro que pode simular, mas possivelmente nunca a desenvolverá. Portanto, é uma discussão muito, muito fascinante.

E lá estamos nós a querer construir máquinas à semelhança do homem.
Precisamente. O que muitas vezes não faz sentido. É como a questão dos aviões: não faz sentido fazer aviões que se comportem como pássaros, não é? Os aviões, à partida, têm de ser vistos como algo muito mais rápido, muito mais pronto para um determinado fim. Não queremos que os aviões tenham as qualidades biológicas de um pássaro. Isso não faz muito sentido. E eu acho que a IA do futuro é aquela que faça sentido, uma IA que aumenta o ser humano, que complementa as nossas qualidades humanas, como a empatia. E, portanto, com uma capacidade cognitiva superior e não substituindo as emoções humanas, os sentimentos humanos. Acho que não. Não é o que faz sentido. Se bem que, em certo tipo de domínios, pode fazer sentido que as máquinas tenham determinadas características empáticas, como, por exemplo, na área da robótica, em que existem projetos onde são usados robôs para interagir com crianças autistas.

Ou com idosos.
Com idosos, na questão da solidão. Aí, de facto, a parte emocional da relação é importante, mas nunca numa perspetiva de criarmos vulnerabilidade na máquina. E portanto, isso não faz sentido. Nós temos de pensar em como a IA nos pode aumentar e não no sentido de criarmos outra espécie. Claro que no reino da ficção científica essa narrativa é aquela que é mais romântica. Agora, o Yuval Harari vai publicar em setembro o novo livro, o Nexus. Saiu agora um primeiro capítulo, ou uma parte do primeiro capítulo, no The Guardian, e ele fala que nós, se não tivermos cuidado, se o ser humano não colaborar entre si, vamos ser uma presa fácil para a IA, que é uma coisa que, à partida, não há nada que nos leve a pensar nisso. No entanto, alimenta a fantasia de muita gente.

As pessoas vivem muito mais nessa fantasia do que dentro da realidade do que é o futuro da IA?
Eu acho que sim. Isso é mais fácil de alimentar, de comunicar. Todos os livros de ficção científica, desde os livros do Asimov, da década de 50, baseiam-se sempre muito nesse princípio, o que faz sentido para a nossa espécie, que é ter receio da sua extinção. Uma das emoções mais importantes para a sobrevivência humana é o medo, não é? Portanto, é muito importante continuarmos a ter medo da tecnologia, por muito que digamos que é pouco rigoroso e científico que assim seja. De facto, nós estamos hoje perante modelos de IA que são extremamente limitados. Por exemplo, estes modelos não sabem fazer contas de multiplicar com quatro dígitos ou mais - erram. Têm de usar ferramentas adicionais. Estão muito dependentes ainda de feedback humano. Eles são treinados com dados massivos. Estamos ainda perante um paradigma que está limitado.

Como é que o Centro para a IA Responsável pretende medir as suas iniciativas em termos de responsabilidade e de ética?
Nós temos 18 produtos em desenvolvimento que, dependendo do domínio em que são aplicados, seguem aqueles pilares da IA responsável. O que temos e estamos a desenhar é um conjunto de quatro selos que são dados aos produtos que garantem que usam a IA de forma responsável. E que têm a ver com aqueles quatro pilares de que falei.

Por exemplo?
Vou dar três exemplos de produtos, sim. Portanto, um primeiro é desenvolvido pela Priberam, que assiste os médicos no processo das altas médicas. Quando um médico precisa de tomar uma decisão, se um doente deve ou não sair do hospital, será com base em relatórios clínicos que vão sendo gerados ao longo da estadia desse doente - que se chamam, em inglês, os Electronic Health Records. Isso é tudo texto que é muitas vezes escrito pelos médicos. Há alguns que são dados quantitativos, mas a maior parte são dados que se chamam não-estruturados. É necessário inferir as patologias do doente a partir dos dados que foram registadas. Portanto, isso é definido através de um sistema de classificação de doenças internacional, o ICD. E este produto transforma estes textos em etiquetas, em labels deste sistema de classificação de doenças. O médico no centro do ecrã vê toda a informação clínica sobre o doente e no lado direito vê a transformação dessa informação nestes labels deste standard internacional de doenças. Neste produto são fundamentais duas características da IA responsável - é assim que medimos se o produto usa IA responsável. O primeiro é a privacidade, para garantir que os dados pessoais destes doentes não entram para treinar os modelos - porque há um risco óbvio aí -, e o da explicabilidade, porque há uma determinada etiqueta de doença e o médico tem de confiar que essa etiqueta foi bem dada. Se clicar na etiqueta, ele percebe de onde é que essa etiqueta foi extraída, vai ao texto original. No fundo, são as referências que às vezes é fundamental termos quando estamos a usar o ChatGPT e ele gera uma coisa e nós ficamos: “Será que isto é verdade ou não? Mostra-me lá onde foste buscar esta informação”.

Paulo Dimas, com as suas equipas e empresas parceiras estão a criar um centro nacional para a IA Responsável, a desenvolver projetos para aplicar a Inteligência Artificial com impacto na vida das pessoas e, com isso, a atrair e reter talento em Portugal. FOTO: Leonardo Negrão.


Um segundo produto, que podemos usar como exemplo, é da Sword Health, um dos unicórnios nacionais, que permite que um paciente recupere, por exemplo, de uma cirurgia ou de um AVC, fazendo fisioterapia em casa. Funciona através de um tablet que usa a câmara de vídeo para assistir o doente na sessão de fisioterapia. Este processo é assistido por um fisioterapeuta que está remotamente. A pessoa não precisa de se deslocar ao centro de saúde. Com isso poupa tempo na deslocação e torna possível fazer fisioterapia em qualquer parte do país, em qualquer parte do mundo. É um produto global. É fundamental aqui o pilar da equidade. Nós não podemos discriminar quando estamos a treinar o modelo com dados destes pacientes. Nós não podemos discriminar entre pessoas que tenham mais idade, menos idade. Portanto, no fundo, nós temos de tratar as pessoas com equidade.
E depois um terceiro produto, que é um produto que se tornou muito conhecido na Web Summit e que recentemente esteve na Cimeira das Nações Unidas de AI For Good, desenvolvido pela Unbabel e que permite restaurar a capacidade de comunicação a uma pessoa que sofre de uma doença neurodegenerativa como a esclerose lateral amiotrófica. Mais uma vez, neste produto, a componente da privacidade é absolutamente fundamental. Nós estamos a trabalhar com dados muito íntimos das relações destes doentes com as suas famílias. É assim que a Inteligência Artificial consegue assistir na comunicação. E, portanto, temos de garantir que esses dados nunca saem do telemóvel da pessoa, por exemplo, são dados que nunca vão para fora - a pessoa tem quase como um cofre de dados pessoal que nunca passa para fora. Isto implica usar um modelo de linguagem local no telemóvel para dar esta segurança ao paciente. Esse é um dos pilares da IA responsável que nós temos de seguir.

Quer isto dizer que estão preparados para ultrapassar todas as questões de ética e de justiça em relação à IA, nomeadamente de privacidade, discriminação algorítmica, transparência nos processos de tomada de decisão?
Sim, claramente. Essa é uma vantagem que nós, quando começámos a desenhar o centro, antecipámos. O centro nasceu em conjunto entre a Unbabel e a Feedzai, e nas conversas que nós começámos a ter pensámos: como é que podemos tirar partido desta oportunidade do Programa de Recuperação e Resiliência (PRR) para criar um consórcio em escala para a IA? E podia ser um consórcio neutro, no sentido de vamos trabalhar em vários projetos de IA, em vários produtos e desenvolvê-los e proporcionar aqui um espaço de colaboração transversal a todas as áreas da IA. Mas nós achámos que devíamos focar-nos na IA responsável, por duas razões: uma primeira razão é que, no final do dia, achamos que os consumidores de Inteligência Artificial vão preferir consumir produtos que usam o IA de forma responsável. Produtos que respeitam a privacidade, produtos que são sustentáveis do ponto de vista energético, produtos que não discriminam. Todas estas características. Há uma vantagem até de mercado, porque as startups vivem sempre num mercado muito competitivo. E um segundo fator foi o da regulação. Na altura, o AI Act ainda estava numa versão de draft, ainda foi bastante tempo antes do ChatGPT, essencialmente um ano e meio antes, mas já se antecipavam produtos de IA de alto risco, porque isso já estava no texto, que iriam ser regulados de forma especial, iriam ter de passar por testes, por validação para garantir que não haveria discriminação. Enfim, tudo o que temos estado a falar. Nós pensámos em produtos que logo à partida estejam preparados para passar todo o tipo de regulação que a União Europeia aprovou.

O AI Act responde a todas essas questões?
O AI Act é um passo muito importante na direção certa. Agora, como qualquer iniciativa regulatória, tem de ser calibrada. Portanto, temos neste domínio sempre um espetro em que, num extremo, está a total ausência de regulação e que é o ambiente ideal para a inovação - e há pessoas que nos Estados Unidos são muito apologistas de total ausência de regulatória -, por outro lado, no outro extremo, temos a excessiva regulação. Nós temos de calibrar este tipo de legislação no sentido de não estar nem no extremo mais regulatório, nem na ausência total de regulação. Isto é um processo que é incremental, não se pode dizer que está fechado. Por exemplo, do ponto de vista energético, o AI Act é um bocadinho vago e essa foi uma das sugestões que nós fizemos, que houvesse maior transparência na parte do uso de energia. Há algumas recomendações, mas não nos parecem suficientemente fortes.

Isso leva-nos a uma pergunta, que é se a Europa pode assumir o papel de liderança?
Sem dúvida. Eu acho que, se não for a Europa a assumir, não vai ser ninguém.

Mas há aqui uma questão: como é possível competir com gigantes tecnológicos como a Google e a Microsoft, por exemplo?
É assim: nós temos de separar duas questões. Uma é como é a competição ao nível de inovação? Como é que nós conseguimos criar um ambiente suficientemente rico, suficientemente colaborativo na Europa e suficientemente na linha da frente, à frente no tempo, para ser a Europa a descobrir os próximos avanços, os próximos paradigmas da Inteligência Artificial? E aí é fundamental nós trabalharmos em rede, haver colaboração. Nós apostámos em áreas estratégicas e eu acho que a intersecção da neurociência com a IA pode servir de inspiração para descobrir, por exemplo, avanços na área da eficiência energética dos modelos. Imaginemos que é descoberto um novo paradigma na Europa que nos permite aumentar a eficiência energética dos modelos dez vezes, 100 vezes. Isso vai tornar esses modelos muito mais lucrativos. Um dos grandes problemas agora é que estes modelos são tão caros do ponto de vista energético que depois isto tem de ser refletido no utilizador.

Mas os custos têm diminuído ao longo do tempo…
Agora, antecipa-se que venha aí o GPT-5, no próximo ano, que em princípio irá ter um custo energético 50 vezes superior ao GPT-4 - vai chamar-se, em princípio, Orion. Se a Europa conseguisse descobrir avanços nessa área, isso é parte da inovação e da competição a nível tecnológico entre a Europa e os Estados Unidos.

E a segunda questão de que falava?
O outro é o plano da regulação. E a regulação é algo que afeta a comercialização de todos os produtos no espaço europeu. Eu acho que a regulação neste contexto acaba por ser uma vantagem competitiva para as startups europeias, porque sabemos logo à partida que aquelas que tenham em conta a regulação vão conseguir comercializar os seus produtos na Europa de uma forma mais ágil, desde que, obviamente, seja uma regulação equilibrada. Faz todo o sentido que a Europa esteja a liderar.

Ou seja, não vai combater a Google e a Microsoft, vai tentar ter avanços que ultrapassem aquilo que são as capacidades de hoje.
Por exemplo, a questão da transparência dos dados que são usados para treinar os modelos é uma discussão enorme, que é tida na Europa, porque tem a ver com as questões dos direitos de autor. É legítimo nós usarmos dados que têm direitos de autor para treinar este tipo de modelos? Será que o autor autorizou que o livro que escreveu passe a ser usado para treinar um modelo deste género? Provavelmente não. Provavelmente tem de haver transparência nos dados. Acho que vamos evoluir para que haja transparência neste sentido, de proteger os criadores. Não faz sentido que esse valor seja transferido sem qualquer compensação. Lá está, é uma iniciativa regulatória que é muito discutida porque diz que se não fosse a violação desses direitos de autor, não tínhamos atingido estes modelos e, portanto, não tinha havido este avanço tecnológico tão significativo. No fundo, foi quebrando um bocadinho as regras que conseguimos dar este salto tecnológico. Isto tem acontecido muito nos avanços da tecnologia, que é primeiro faz-se o avanço e depois regula-se a seguir. Aconteceu o mesmo com a Uber, com o Airbnb. Eu acho que estamos nessa fase de regular.

E como é que Portugal se pode afirmar nessa corrida?
Acho que o que estamos a fazer é materializar esta visão. Nós estamos a criar os produtos até ao final de 2025 e também estamos a discutir o pós-2025 ao nível da criação de um centro nacional para a IA Responsável. Estamos a aplicar a Inteligência Artificial com impacto na vida das pessoas. Com isso estamos a atrair e reter talento cá em Portugal, que é um dos nossos grandes desígnios. Quando nós começámos a imaginar a criação deste centro, uma das grandes motivações foi reter os nossos jovens cientistas que estão a desenvolver os seus doutoramentos cá em Portugal, ou que muitas vezes não estão porque não há oportunidades suficientemente desafiantes, por um lado, e por outro, também não há salários que os façam ficar. E, portanto, nós estamos a criar essas condições. Estamos a criar conhecimento de ponta nestes domínios. Fazendo uma aposta, já desde há três anos, naquele que achamos que é a IA do futuro, que é responsável, por um lado, e, por outro, cria valor económico, cria produtos que vão aumentar as exportações, que vão criar emprego.

Era aí que eu queria chegar também. O Centro para a IA Responsável tem uma dotação de 51,3 milhões vindos do PRR, num total de 78 milhões investidos. Como é usado esse dinheiro?
A forma como o dinheiro é distribuído é, primeiro que tudo, centrada no desenvolvimento dos produtos e, em paralelo, nas linhas de investigação que desenhámos. Há uma percentagem do financiamento que é atribuída aos sete centros que estão a trabalhar em cinco linhas de investigação, que vão desde a eficiência energética, privacidade, equidade, aplicabilidade e tecnologias da linguagem. E, portanto, no fundo, nós estamos a criar também este ecossistema que junta investigadores de diferentes centros, onde estamos a identificar aquilo a que chamamos os campeões de IA em Portugal e que, no fundo, são referências para os alunos que querem fazer doutoramento. Essa é uma parte importante do investimento, a componente de investigação. Mas a maior parte do investimento é para a criação de produtos que são acelerados do ponto de vista de entrada no mercado pelos líderes de indústria que nós temos. Criámos aqui um conceito de colaboração, que é o conceito do product squad, através de uma ligação entre uma startup, um ou mais centros de investigação e um ou mais líderes de indústria, no sentido de criar um produto que primeiro resolve desafios concretos. E com isso também está a ajudar a nossa economia a ser mais competitiva, aumentar a eficiência dos hospitais, ajudar a lançar um medicamento mais rápido no mercado de uma forma segura, democratizar o acesso à fisioterapia, no customer service na área do comércio eletrónico.

Qual será esse impacto económico para o país?
O impacto económico que nós estimamos foi cerca de 250 milhões de euros até 2030 - cerca de cinco vezes o incentivo recebido. Mas isto é sempre muito difícil de prever. Foi um exercício que fizemos. Há produtos que não vão vingar, faz parte da característica das startups. Há outros produtos que vão ganhar vantagens competitivas muito significativas.

E há outros produtos que provavelmente o mercado português não está adaptado a eles e serão exportados.
Nós costumamos dizer que o nosso mindset é 95% de exportações. Claro que dentro do espetro de startups, temos empresas como a Unbabel ou a Sword Health, que já exportam mais de 95% do que criam. Mas depois temos outras que estão ainda muito dependentes do mercado português. Mas isso não é mau, porque também estão numa fase mais inicial do seu desenvolvimento, o que é importante é que os desafios que estão a atacar sejam globais. Nós temos de ter sempre um mindset global.

Arlindo Oliveira é um dos especialistas que está também neste consórcio. Ele foi uma das primeiras pessoas em Portugal a alertar para a grande questão da falta de recursos humanos, especialmente nas tecnologias. Qual é a vossa perceção?
Se não criámos valor económico, não conseguimos atrair e reter recursos humanos. Claro que não existem recursos humanos em quantidade suficiente na IA. Todos os países estão a criar formas rápidas de atrair esses recursos humanos. Mesmo nos Estados Unidos é dito explicitamente que os vistos para pessoas especializadas em IA devem ser distribuídos de uma forma mais rápida, devem ter uma espécie de fast track. Há uma competição enorme para atrair esse talento e isso reflete-se também nos salários. As pessoas de IA são pagas de forma quase pornográfica em muitos casos, porque não há muitas. Nós temos de formar mais. E aí é onde Portugal, por exemplo, é muito competitivo. Nós conseguimos formar jovens talentosos em IA ao mesmo nível que a maioria das universidades internacionais. Portanto, claro que depois também temos de expor estes jovens a centros de investigação avançados e daí que seja muito importante as parcerias que nós temos, por exemplo, com universidades como a Universidade de Carnegie Mellon, que tem beneficiado muito disso também, porque nós pomos os nossos jovens a fazer doutoramentos, que se chama o dual degree.

Qual é a diferença salarial face a Portugal de um profissional de Inteligência Artificial?
À saída da universidade, um aluno de mestrado, por exemplo, da Carnegie Mellon, recebe quatro, cinco vezes mais do que um aluno, em média, que esteja a sair de uma universidade portuguesa. Ainda estamos nessa fase.

No caso da Unbabel, qual é o objetivo mais imediato para o uso da IA?
A Unbabel criou uma plataforma que chamamos de Language Operations, onde qualquer empresa se pode tornar multilingue de uma forma muito fácil. Com estes avanços na área generativa, com estes motores de grande escala, nós temos o nosso próprio modelo de linguagem, que é o TowerLLM. Essa é uma das áreas de investigação mais fortes em que nós temos estado a trabalhar. Estamos a trabalhar esse modelo no supercomputador de Barcelona e isso vai dar-nos uma alavanca para abrir esses domínios da IA. E com isso vamos ser muito mais competitivos do que empresas de tradução que não dominem esta necessidade de IA. Claro que estamos todos a competir e, portanto, também vão dominar, mas nós estamos na vanguarda desse domínio.

E o Halo, o projeto da Unbabel de que falava no início da entrevista?
O Halo vai ser um spin-off que vai vai surgir como uma nova startup. Portanto, a equipa do Halo vai fundar uma nova startup.

E já há data?
Estamos a trabalhar nisso para até ao final do ano. O Halo ganhou muita notoriedade com a Web Summit - lá está a importância de termos uma Web Summit cá em Portugal -, e ainda mais agora nas Nações Unidas, que é o maior palco mundial AI for Good. E, portanto, já houve vários investidores interessados, nós queremos agora aproveitar este momento para descolar.

E quem será o CEO?
Ainda não está definido quem vai ser o CEO. É uma questão que nos apaixona a todos, mas ainda não está decidido quem o vai ser.

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt