"Plena aplicabilidade" está prevista para agosto de 2027.
"Plena aplicabilidade" está prevista para agosto de 2027.Foto: Unsplash

IA: começa nova fase de adaptação ao regulamento europeu

Os fornecedores ou prestadores de serviço que tenham estes modelos de IA de finalidade geral passam a ter que documentar o processo de formação e os resultados.
Publicado a
Atualizado a

O regulamento europeu de inteligência artificial (IA) tem de estar em "plena aplicabilidade" em agosto de 2027 e partir deste sábado, 02 de agosto, os modelos de finalidade geral estão obrigados a ser transparentes sobre o conteúdo usado no seu treino. No dia 02 de agosto de 2027 "teremos a plena aplicabilidade" do AI Act, depois de ter começado a ser aplicado em agosto do ano passado, refere, em entrevista à Lusa, o jurista e sócio de TMC do escritório de advogados CMS Portugal João Leitão Figueiredo.

"Tivemos a segunda fase, que foi em 02 de fevereiro" deste ano, nomeadamente com os "sistemas de IA que empreguem técnicas subliminares, sistemas de IA que explorem as vulnerabilidades das pessoas devido à sua idade, incapacidade ou situação socioeconómica, sistemas de IA para avaliação e classificação de pessoas", ou seja, o 'scoring social' que tem sido utilizado na China, e os que criam bases de dados de reconhecimento facial, elenca o advogado.

"Agora, a 02 de agosto, são aqueles sistemas de IA de finalidade geral" e o que é que "nos traz aqui de especial? É porque estes sistemas de IA de finalidade geral não são sistemas autónomos, ou em princípio não serão sistemas autónomos por si só", mas funcionalidades de inteligência artificial "integrados noutros sistemas", prossegue João Leitão Figueiredo.

De acordo com o regulamento, "estamos a falar de modelos de IA que têm um grau de generalidade considerável, podem realizar uma vasta gama de tarefas e podem ser integrados em vários sistemas ou aplicações de IA" e, "portanto, aqui começam a surgir algumas obrigações", diz.

"Nomeadamente, os fornecedores ou prestadores de serviço que tenham estes modelos de IA de finalidade geral passam a ter que documentar o processo de formação e os resultados da sua avaliação, têm que planear, integrar o modelo de IA de finalidade geral nos seus sistemas e quais as suas características e requisitos legais", enumera o especialista.

Outras obrigações

Têm também que "estabelecer uma política de cumprimento da legislação da União Europeia em matéria de direitos de autor e direitos conexos, nomeadamente, à proteção dos textos e dos dados", aponta.

Esta "é outra das dúvidas que começa aqui a assolar a Europa no seu êxtase de sobrerregulação", considera João Leitão, ou seja, "agora de quem é que são os direitos e como é que se define e em que termos é que esta situação pode ser gerida". Depois, "são obrigados a divulgar publicamente um resumo detalhado do conteúdo utilizado para treinar o modelo" de IA de finalidade geral.

"Acima de tudo aqui, esta parte parece-me mais relevante na medida em que assegura aquilo que é o princípio da transparência para que quem utilize este tipo de sistemas de finalidade geral possa compreender exatamente como é que o seu criador alimentou, qual foi o 'input' que foi dado ao modelo de IA para tornar um pouco mais previsível aquilo que venha a ser o 'output' gerado" por estes modelos de finalidade geral, salienta.

A União Europeia "está preocupada com a utilização de sistemas de IA para finalidades que, de acordo com o quadro legislativo europeu, são claramente violadoras" e, neste âmbito, "estamos a falar de utilização para controlo, monitorização e avaliação dos trabalhadores, os sistemas de 'scoring' na decorrência daquilo que se foi detetando na China, em que se as pessoas meramente contactassem com outras que têm uma avaliação ou um 'score' mais baixo, poderiam perder pontos na sua avaliação", contextualiza.

Isto depois tem impacto quer no acesso ao crédito, quer a profissões, entre outros. "Depois [a UE] começou a preocupar-se com o outro elemento, que é o utilizador individual, mas também as empresas que começam gradualmente a integrar mais e mais sistemas" de IA no seu modelo de negócio e que precisam de mais dados "para tomar uma decisão informada", diz.

O legislador europeu veio a dizer "é que deverá ser explicado o modelo que é utilizado, mas também deverá ser explicada aquela brutalidade de informação que é necessária para alimentar o sistema de IA porque se não soubermos, ou não conseguirmos, pelo menos, avaliar a qualidade do 'input', ou seja, dos materiais, documentos, o que quer que seja que serve para desenvolver a IA, nós [técnicos com capacidade de avaliação] não vamos conseguir" ter uma visão mais clara sobre o tema, prossegue.

Em síntese, "não vamos conseguir também avaliar a qualidade do 'output', por isso é que alguns sistemas de IA continuam a falhar na medida em que não é fácil mitigar ou anular o viés que resulta da informação que é carregada" no sistema. O jurista considera "um bom desafio" analisar-se aquilo que é o DeepSeek chinês, ou o ChatGPT, ou outras ferramentas, "porque todos eles são alimentados com bases de dados, com informação que é distinta".

Também significa que, "em alguns momentos, os sistemas, no caso norte-americanos, podem ter uma vantagem", na medida em que a informação que é carregada tem uma qualidade superior, mas noutros casos até pode ser o modelo de IA chinês ou de outro país.

"Estou a falar nestes dois porque diria que são um bocadinho aqui os titãs que se batem com o Copilot [Microsoft], ChatGPT [OpenAI], por um lado, e o DeepSeek pelo outro", remata.

"Plena aplicabilidade" está prevista para agosto de 2027.
Dos tradutores aos matemáticos: as profissões mais ameaçadas pela Inteligência Artificial
"Plena aplicabilidade" está prevista para agosto de 2027.
Sword Health inaugura primeiro escritório em Lisboa e tem 100 vagas para IA

Artigos Relacionados

No stories found.
Diário de Notícias
www.dn.pt