IA Como Ferramenta Incontornável do Judiciário

 

Da mesma forma que a internet, após sua disseminação, virou uma ferramenta de pesquisa e trabalho incontornável para o novo mundo que veio posteriormente, o mesmo pode-se falar do uso de IA Generativa em diversas esferas profissionais, não sendo diferente, portanto, no âmbito do Poder Judiciário. Seu uso é uma realidade concreta e já institucional em vários Tribunais pelo país.

Muito embora, alguns focos de resistência existam — como não poderia deixar de ser em casos de mudanças tão abruptas/disruptivas do status quo anterior — trata-se de um caminho já sem volta. Resta, portanto, um ponto de inflexão subsequente que é preciso ser enfrentado: o uso ético dessa ferramenta, seja por advogados, membros do Ministério Público, Defensoria ou magistrados.

Há um dever de se evitar cair em uma tentação muito real: a de deixar a IA fazer o trabalho por você, ao invés de simplesmente ser uma ferramenta de trabalho agregadora no uso do dia a dia. O risco de criar uma espécie de “dependência” vem sendo chamado de Automation Bias, que no Judiciário aparece quando o rótulo, a minuta ou o “precedente sugerido” passa a ancorar o raciocínio. O risco é aderir ao texto (comissão) ou relaxar a conferência (omissão) por confiar no “diagnóstico” automatizado.

Imagine uma criança que acaba adquirindo maus hábitos corriqueiros e cada vez mais permanentes, em razão da falta de reprimenda parental no momento oportuno. Quando se confia demais no julgamento oferecido pela IA, sem visão crítica daquilo que está sendo sugerido, cria-se uma confiança potencialmente prejudicial à qualidade daquilo que se pretende produzir, que com o passar do tempo, aumenta exponencialmente.

 

Uso Responsável pelo Advogado – Diferenciação entre Lapidação e Autoria

Mesmo usando IA, a assinatura do patrono é a que consta no final da peça. Logo, há um evidente risco quando se depende de forma excessiva da ferramenta na hora da confecção da peça, pois os erros derivados desse automation bias não vão recair sobre o ChatGPT, o Claude ou o Gemini. Recairá sobre o constituinte e, por óbvio, ao advogado, uma vez que ele é o responsável pelas teses que serão endereçadas e apreciadas pelo juízo e responderá, segundo o Código de Ética da OAB, por aquilo que assina.

Venho utilizando a expressão “ferramenta” não à toa, pois — até o presente momento — esta ainda é linha auxiliar na confecção redacional, não o próprio autor, (muito embora estejamos caminhando nesse sentido). E como toda ferramenta, deve ser manuseada, como diz o brocardo, com “grano salis”.

Primeiro, pelo fator da segurança: os dados que são endereçados aos sistemas de IA devem, com uso responsável, exige avaliar governança, política de retenção, controle de acesso e base contratual da solução — e, quando houver dúvida, anonimizar/minimizar dados (especialmente em segredo de justiça e dados sensíveis), o que exige cuidado redobrado especialmente nos casos com informações sensíveis ou segredo de justiça. Segundo, pelo aspecto autoral: é bom que seu prompt seja um espelho do conhecimento técnico, linguístico e redacional do advogado, pois do contrário, o resultado pode ser uma simples compilação de dados abstratos e sem toque pessoal, com possibilidade — não se nega — de obter resultados positivos, mas acaba sendo uma subutilização de potencial tanto do profissional, como da ferramenta.

Dizem que Michelangelo, ao terminar de esculpir a estátua de Davi, ficou tão encantado com sua própria obra que se dirigiu a ela e disse “parla” (fale). Um prompt bem desenhado, ao contrário da magnânima estátua do italiano, pode de fato “falar”, e com lapidação adequada, mesmo que dela venha o auxílio redacional, ainda assim será um reflexo de seu autor, mantendo intacta sua digital e — porque não — o valor da assinatura.

Se na advocacia a IA precisa respeitar autoria, sigilo e responsabilidade de quem assina, na magistratura ela precisa respeitar algo ainda mais sensível: a fundamentação controlável e contestável da decisão.

 

Uso Responsável nas Cortes – Atenção Redobrada ao Automation Bias

A Resolução CNJ nº 615/2025 é um marco muito importante para controlar o risco iminente de decisões influenciadas por sistemas automatizados sem supervisão adequada, com pouco lastro para reformulação de entendimentos dominantes, com a apresentação do princípio de “Reserva de Humanidade”, que veda de forma peremptória a tomada de decisões elaboradas exclusivamente pela ferramenta. No entanto, as palavras da resolução devem ser postas em prática.

Em aspecto anedótico, observo com preocupação a quantidade de acórdãos elaborados em decisões colegiadas que são unânimes. A divergência gera debate, e o debate enseja estar apto a contraditar argumentos postos pelo par. No mundo ideal, as teses teriam tempo e espaço aberto para debate, mas quando há o auxílio da IA combinado com o dever de esvaziar filas de decisões a serem tomadas, temos uma combinação perigosa para a segurança jurídica.

No ambiente colegiado, o automation bias pode surgir quando minutas, ementas, triagens ou “precedentes sugeridos” passam a servir como ponto de partida incontestado, deslocando a análise do caso concreto.

Obviamente, pode-se também partir do pressuposto que o volume de decisões que chegam nas Câmaras e Turmas para revisão é enorme, há uma confiança genuína na competência do Relator, e o auxílio da IA acaba sendo imprescindível, no entanto, gera o risco do excesso de confiança no diagnóstico da ferramenta, fazendo com que o dever da celeridade processual — como também o dever de atendimento de metas estabelecidas pelo CNJ — prejudique a obediência a esse novo princípio corretamente instituído.

É inescapável que a tecnologia já entrou no fluxo de trabalho — mas ainda estamos aprendendo a governá-la. E é justamente por isso que o próximo passo não é resistir à IA, e sim construir diretrizes éticas claras, proporcionais ao risco, para quem usa e para quem decide.

 

Da Regulação Em Curso

Os últimos anos mostraram já de forma bem aferível o impacto do uso da IA no mundo jurídico. No Judiciário, esse movimento já ganhou contornos normativos com a Resolução CNJ nº 615/2025; e, na advocacia, a OAB já publicou recomendações de uso responsável.

Resistência e recriminação indo de um lado a outro nos autos eletrônicos, com raízes um pouco fincadas na lenta mobilidade do ordenamento jurídico ante as inovações tecnológicas. No entanto, passada essa fase, adentrando na Era em que reconhecemos que a ferramenta já é uma realidade cotidiana, resta ao poder público criar métodos de uso responsável e seguro, bem como as entidades de classe em criarem seus próprios códigos de conduta.

A nova escalada deve apontar para a segurança jurídica tanto de quem recorre ao judiciário, como àquele que decide a questão. Haverá erros de implementação, mas o risco relevante é o dano processual concreto, porque a justiça acontece em tempo real, ensejando balizas certas de uso responsável que devem ser pensadas e adotadas o quanto antes, pois o Trânsito em Julgado de uma decisão não espera pela adequação posterior do uso ético da IA.

Autor: Dr. Miguel Augusto

Veja também: