Casos Reais11 de maio de 20267 min de leitura

Juiz do TRT-1 Publica Acórdão com Trecho Gerado por IA

Decisão do TRT-1 inclui trecho gerado por IA, levantando questões sobre o uso de inteligência artificial na elaboração de votos judiciais.


Um acórdão publicado pelo Tribunal Regional do Trabalho da 1ª Região (TRT-1) em 27 de fevereiro trouxe à tona um problema que já preocupa advogados e magistrados em todo o país: o risco de jurisprudência falsa gerada por IA e de conteúdo produzido por ferramentas de inteligência artificial aparecer em decisões judiciais sem a devida revisão. O juiz convocado Maurício Madeu, da 6ª Turma do tribunal, incluiu inadvertidamente no voto um trecho que revelava o uso de um sistema de IA generativa, expondo publicamente uma prática que, segundo especialistas, é mais comum do que se imagina.

O Que Aconteceu no TRT-1

O acórdão em questão tratava de um pedido de indenização por doença ocupacional movido por um coletor de lixo contra sua empregadora (processo nº 0101045-58.2023.5.01.0561). O juiz de primeira instância havia condenado a empresa ao pagamento de R$ 40 mil por danos morais. A 6ª Turma do TRT-1 manteve a indenização e ainda fixou pensão mensal equivalente a 6,25% da última remuneração do trabalhador.

O problema não estava no mérito da decisão. Estava em um trecho que não deveria ter sido publicado. O texto do acórdão incluía a seguinte frase, que é claramente um retorno de prompt de IA:

"Segue minuta de fundamentação elaborada no padrão solicitado, em estilo Maurício, analisando especificamente o conteúdo do laudo pericial e dos esclarecimentos apresentados pela perita."

Essa frase não é fundamentação jurídica. É a resposta de um sistema de inteligência artificial confirmando que executou uma instrução. Ela foi esquecida no documento antes da publicação.

A Explicação do Juiz

Após a repercussão do caso, amplamente noticiado por veículos como Migalhas e JOTA, o juiz Maurício Madeu se pronunciou. Ele afirmou que utiliza ferramentas de IA "estritamente como instrumento auxiliar, voltado à organização de ideias, à redação e ao aprimoramento das minutas de voto, sem qualquer delegação da atividade decisória, que permanece integralmente sob sua responsabilidade".

O magistrado classificou o ocorrido como um erro de revisão, não como um problema de conteúdo decisório. Em suas palavras: "O ocorrido não compromete a validade ou a higidez da decisão proferida, tratando-se de equívoco formal pontual, plenamente passível de correção, como ocorre com os erros materiais em geral".

Madeu também mencionou o contexto de sua atuação: juiz convocado, com volume elevado de processos para analisar.

A Presidência do TRT-1, por sua vez, informou que não se manifestaria sobre o caso, por se tratar de matéria ligada à atuação jurisdicional do juiz.

Não é um Caso Isolado

O episódio do TRT-1 não é o primeiro do gênero no Brasil. Há registro de situação semelhante envolvendo o desembargador Magid Nauef Láuar, do Tribunal de Justiça de Minas Gerais (TJMG), em que um prompt de IA também foi esquecido em uma decisão judicial publicada. O padrão se repete: o magistrado usa IA para redigir minutas, esquece de remover o cabeçalho ou a instrução retornada pelo sistema, e o documento é publicado com esse conteúdo visível.

Esses casos levantam uma questão mais ampla do que o simples erro de revisão. Se prompts aparecem em decisões publicadas, quantas decisões contêm conteúdo gerado por IA que passou despercebido, sem qualquer marcação visível? A resposta, por definição, é impossível de mensurar sem auditorias sistemáticas.

Para advogados que atuam nessas instâncias, o cenário exige atenção redobrada. Assim como já documentamos em casos de advogados multados por usar IA em petições, o problema não está na ferramenta em si, mas na ausência de verificação humana efetiva antes da publicação ou do protocolo.

O Que Diz a Regulamentação do CNJ

O uso de inteligência artificial generativa no Poder Judiciário brasileiro é regulamentado pela Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ), que atualizou normas anteriores editadas em 2020. A resolução estabelece diretrizes para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA no âmbito do Judiciário.

Entre os princípios centrais da norma estão:

  • A supervisão humana é obrigatória em todas as etapas dos ciclos de desenvolvimento e de utilização das soluções de IA.
  • Qualquer conteúdo gerado por IA deve passar por análise e validação de uma autoridade competente antes de produzir efeitos.
  • Os sistemas de IA devem ser compatíveis com direitos fundamentais, devido processo legal, ampla defesa, contraditório e identidade física do juiz.
  • A IA não substitui o magistrado, funcionando apenas como ferramenta de apoio à decisão judicial.

O caso do TRT-1 coloca em xeque justamente o requisito de supervisão humana. Se o prompt apareceu no acórdão publicado, a etapa de revisão antes da publicação foi, no mínimo, insuficiente. Isso não é uma questão de intenção, mas de processo.

A Posição da OAB

A Ordem dos Advogados do Brasil tem acompanhado de perto o avanço da IA no Judiciário. Daniela Borges, presidente da OAB-BA, foi direta ao comentar o episódio: "Uma vez que o CNJ traz essa obrigatoriedade, se há um indício de que a decisão não passou por um controle humano efetivo, há um fundamento para se questionar a validade do ato".

Beto Simonetti, presidente do Conselho Federal da OAB, reforça a posição institucional da entidade: "A Inteligência Artificial é uma ferramenta poderosa, mas jamais substituirá a advocacia. Relações humanas não são equações matemáticas. O Direito nasce da interpretação, da sensibilidade e da responsabilidade humana".

A OAB aprovou recomendações para o uso ético e responsável da IA na prática jurídica, defendendo regulamentação e supervisão como condições inegociáveis para garantir a qualidade das decisões.

O Que Isso Significa para Advogados

Se você atua em processos no TRT-1 ou em qualquer outro tribunal, o caso Maurício Madeu traz implicações práticas que merecem atenção.

Sobre as decisões que você recebe: Uma decisão que contenha trechos gerados por IA sem supervisão adequada pode ter sua validade questionada. A declaração da presidente da OAB-BA indica que há fundamento jurídico para esse questionamento, especialmente à luz da Resolução CNJ nº 615/2025. Se você identificar indícios desse tipo em uma decisão, vale consultar um especialista sobre os instrumentos processuais cabíveis.

Sobre as peças que você produz: O risco não é exclusivo dos magistrados. Advogados que usam IA para redigir petições e não verificam o conteúdo antes do protocolo estão expostos a problemas semelhantes, incluindo a inclusão de citações inexistentes, súmulas que não existem ou precedentes distorcidos. Já documentamos casos de ação rescisória fundada em jurisprudência falsa gerada por IA no TJ-RJ, com consequências processuais sérias para as partes envolvidas.

Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.

O Contexto Mais Amplo: IA no Judiciário Brasileiro

O CNJ lançou recentemente a segunda edição da Pesquisa Sobre Inteligência Artificial Generativa no Judiciário, voltada a magistrados e servidores de todo o país. O objetivo é mapear como essas tecnologias estão sendo utilizadas nas rotinas de trabalho, identificando benefícios, desafios e oportunidades de aprimoramento. Os dados dessa pesquisa, quando publicados, devem oferecer um panorama mais preciso sobre a extensão do uso de IA generativa em decisões judiciais brasileiras.

O ministro Luís Roberto Barroso já havia sinalizado, em declaração anterior, que "a inteligência artificial poderia escrever primeiras versões de sentenças judiciais", reconhecendo ao mesmo tempo "a necessidade de regulação, governança e transparência". O caso do TRT-1 ilustra exatamente o ponto de tensão entre a eficiência que a IA oferece e os riscos que surgem quando os processos de revisão falham.

A questão não é proibir o uso de IA no Judiciário. A Resolução CNJ nº 615/2025 não proíbe. A questão é garantir que a supervisão humana seja real, não apenas formal. Um prompt esquecido em um acórdão publicado é a evidência mais visível de que essa supervisão, em pelo menos um caso documentado, não funcionou como deveria.

Para advogados que já incorporaram IA ao seu fluxo de trabalho, o episódio serve como lembrete de que a tecnologia exige processo. Usar IA para redigir é uma escolha legítima. Publicar ou protocolar sem revisar o resultado é o risco que precisa ser gerenciado, seja você magistrado ou advogado. Entender como usar o ChatGPT em petições sem incorrer em multas é o primeiro passo para adotar a tecnologia com responsabilidade.

Fontes desta matéria

IAInteligência ArtificialTRT-1AcórdãoJurisprudência

Transforme o caso real em prevenção concreta

Revise sua próxima peça com relatório de verificação para identificar citações frágeis, trocadas ou inventadas antes do protocolo.

Revisar uma peça com relatório

Continue lendo

Leituras complementares