A Inteligência Artificial nos tribunais: entre a cautela e a inevitabilidade

António Jaime Martins

Advogado e sócio fundador da ATMJ - Sociedade de Advogados

Publicado a

O Conselho Superior da Magistratura aprovou, através do seu Grupo de Acompanhamento da Inteligência Artificial (GAIA), um parecer que estabelece recomendações para o uso de IA na atividade jurisdicional. O documento – datado de 23 de fevereiro de 2026, com a referência 2025/GAVPM/5469 – merece atenção cuidada, não apenas pelo que diz, mas sobretudo pelo que revela sobre o estado da arte da transformação digital da Justiça portuguesa.

O parecer assenta em dez princípios, dos quais avultam o controlo humano eficaz, a não-substituição dos juízes, a responsabilidade judicial exclusiva e a independência decisória. A IA não pode decidir, não pode avaliar factos ou provas, não pode interpretar ou aplicar a lei. O juiz é - e tem de continuar a ser -o autor intelectual e o responsável único por cada despacho, sentença ou acórdão.

Em seguida, o parecer esclarece que tipo de IA pode ser utilizada pelos magistrados: apenas as ferramentas de IA disponibilizadas pelo próprio sistema de tramitação processual ou pelo próprio CSM. Já o recurso a sistemas externos ao sistema de Justiça, tal apenas é permitido para fins de preparação ou estudo (v.g. pesquisa jurídica, resumos e traduções), com a expressa proibição de introduzir dados judiciais em plataformas não-certificadas pelo CSM. Assim, qualquer elemento processual utilizado fora do perímetro institucional deve estar anonimizado.

A exigência de transparência constitui outro pilar do parecer: o uso de IA deve ser declarado na própria decisão judicial. A fórmula proposta (“menção expressa de que a decisão foi produzida com auxílio de IA e integralmente revista pelo signatário”) tem subjacente a introdução de transparência na utilização de IA.

Particularmente pertinente é o dever de vigilância imposto aos juízes relativamente a peças processuais que apresentem indícios de utilização acrítica de IA por intervenientes, designadamente a citação de acórdãos inexistentes – as “alucinações” algorítmicas –, a referência a legislação “caduca” ou “inexistente” ou o uso de expressões estranhas ao português europeu.

Aqui a recomendação torna-se transversal, sendo válida não apenas para os juízes, mas para todos os profissionais intervenientes no judiciário. O parecer identifica, com lucidez, uma lacuna estrutural: a inexistência da autoridade de controlo de dados judiciais prevista no “considerando 20” do RGPD.

Uma proposta conjunta de 2023, subscrita pelo CSM, CSTAF, PGR e Tribunal de Contas, para criação da Autoridade da Proteção de Dados Judiciais, mediante alteração à Lei n.º 34/2009, aguarda concretização, vazio normativo preocupante na medida em que o uso de IA na atividade jurisdicional é classificada como de risco elevado pelo Regulamento (UE) 2024/1689 (AI Act).

A advocacia não pode alhear-se desta discussão. Se os tribunais adotam regras para o uso de IA, os advogados terão de alinhar as suas práticas com a prática judiciária, sob pena de terem as suas peças processuais escrutinadas por critérios que desconsideram, desconhecem ou subestimam. A Ordem dos Advogados tem aqui uma responsabilidade que não pode ser adiada.

O parecer do CSM é um ato de prudência institucional e a manifesta incapacidade quanto ao controlo do cumprimento das suas recomendações, não lhe é imputável. Dado o risco da adoção desregulada, o CSM escolheu o caminho mais seguro. Como sugestão de reflexão, deixo apenas o apelo à desnecessidade de ser feita referência à utilização da IA, porquanto, a sua não utilização será excecional e a menção singela que é proposta poderá não ser suficiente para evitar a arguição de invalidades das decisões.

Diário de Notícias
www.dn.pt