Li recentemente no The Guardian, que o Tribunal Federal Australiano entendeu por bem atuar sobre os riscos do uso de IA na elaboração de peças processuais. A tecnologia tem gerado citações falsas, jurisprudência inexistente e erros factuais em documentos apresentados como prova. Entre nós temos também tido já algumas situações complicadas e até confrangedoras. E não envolveram apenas advogados.Além dos erros há o problema da confidencialidade – pilar da profissão – que facilmente pode ser comprometida pelo uso irresponsável de IA generativa aberta.Os problemas não são, pois, novos. Mas a escala com que surgem começa a ser. O ponto reside na capacidade de a IA produzir informação convincente, estruturada e aparentemente credível, ainda que potencialmente falsa. A IA generativa não “erra” de forma óbvia. Pelo contrário, tende a produzir respostas com aparência de autoridade, incluindo referências a casos inexistentes, doutrina fabricada ou citações juridicamente plausíveis mas inexistentes. No contexto jurídico, isto é particularmente perigoso, porque a forma pode facilmente mascarar a substância.A posição do Tribunal Federal Australiano, tal como relatada, assenta em quatro ideias fundamentais: (i) a apresentação de informação falsa ao tribunal é inaceitável independentemente da sua origem tecnológica; (ii) os advogados devem verificar integralmente a veracidade das citações e da jurisprudência invocada; (iii) deve existir transparência quanto ao uso de IA na preparação de documentos e (iv) o uso indevido pode ter consequências disciplinares e financeiras. O que o tribunal fez foi, pois, estabelecer deveres de verificação, transparência e responsabilidade. Enquadrou. Não proibiu.Não se trata de demonizar a tecnologia, mas sim de impor que a responsabilidade é sempre humana. Mesmo quando a ferramenta falha, a obrigação de controlo continua a recair sobre o profissional que a utiliza.E se quisermos nós fazer algo semelhante? Em Portugal, o sistema jurídico não parte de um vazio normativo. Tanto o Código de Processo Civil como o Estatuto da Ordem dos Advogados já contêm princípios suficientemente amplos para enquadrar grande parte dos problemas colocados pela IA. Refiro-me aos deveres de boa-fé processual, de cooperação, aos princípios de verdade material, ao dever de zelo profissional. Tudo isso é suficiente para responsabilizar o advogado por qualquer peça processual que contenha erros relevantes, independentemente da sua origem. O mesmo se diga quanto aos deveres de confidencialidade.Por outro lado, do ponto de vista disciplinar, o advogado responde sempre pelo conteúdo dos atos que subscreve, o que significa que se um articulado contiver jurisprudência inexistente gerada por IA, a responsabilidade já hoje não seria da ferramenta, mas do advogado.Tudo isto é útil. Mas o que acabo de dizer não resolve o principal problema prático: a facilidade com que tais erros podem ocorrer e passar despercebidos. O verdadeiro risco da IA não é apenas a possibilidade de erro, mas a alteração do comportamento profissional que ela induz. Quando um sistema produz rapidamente um texto estruturado com referências jurídicas aparentemente sólidas, existe uma tendência natural para reduzir o nível de verificação humana. É o chamado “automation bias”. O advogado pode, inconscientemente, passar de um modelo de construção ativa do argumento jurídico para um modelo de revisão passiva de um texto produzido por máquina. Essa inversão é subtil, mas profundamente relevante. E o risco não é apenas jurídico. É epistemológico: a forma como o conhecimento jurídico é produzido e validado pode tornar-se menos rigorosa.Uma das medidas mais interessantes do “modelo australiano” é a exigência de divulgação do uso de inteligência artificial em peças processuais.O debate é interessante. Por um lado, a transparência pode reforçar a confiança do sistema judicial e permitir ao tribunal avaliar melhor a origem dos conteúdos apresentados. Por outro lado, a exigência de “disclosure” pode ser difícil de operacionalizar e criar um formalismo excessivo, sobretudo se a IA for utilizada apenas como ferramenta auxiliar de redação ou revisão. A solução intermédia poderá passar por uma abordagem baseada em risco: exigir divulgação apenas quando a IA for utilizada de forma substancial na geração de conteúdo jurídico relevante (por exemplo, elaboração de argumentos jurídicos ou identificação de jurisprudência).A tentação regulatória nestes casos é frequentemente dupla: ou ignorar o problema, assumindo que o direito existente é suficiente, ou legislar de forma excessiva, criando regras tecnológicas demasiado rígidas. O caminho mais equilibrado parece-me ser outro.Mais importante do que “criar infrações” é clarificar que as infrações existentes se aplicam integralmente a este novo contexto tecnológico e aplicá-las efetivamente. A Ordem dos Advogados tem feito já caminho neste sentido, promovendo formações sobre “IA responsável”. Falta que todos adiramos. Importa alargar o debate.Em suma, a IA generativa não elimina o dever de verificação. Não substitui o advogado. Não altera o princípio fundamental de que quem assina um documento jurídico assume integral responsabilidade pelo seu conteúdo. A questão já não é saber se a IA será usada na prática jurídica. Isso já acontece. A questão é garantir que o sistema jurídico será capaz de manter os seus padrões de rigor num contexto em que a produção de texto deixou de ser exclusivamente humana.E essa resposta dependerá menos da tecnologia e mais da forma como a profissão jurídica decide assumir, ou não, a sua responsabilidade histórica perante ela.