Um acórdão publicado pelo Tribunal Regional do Trabalho da 1ª Região (TRT-1) em 27 de fevereiro trouxe à tona um problema que já preocupa advogados e magistrados em todo o país: o risco de jurisprudência falsa gerada por IA e de conteúdo produzido por ferramentas de inteligência artificial aparecer em decisões judiciais sem a devida revisão. O juiz convocado Maurício Madeu, da 6ª Turma do tribunal, incluiu inadvertidamente no voto um trecho que revelava o uso de um sistema de IA generativa, expondo publicamente uma prática que, segundo especialistas, é mais comum do que se imagina.
O Que Aconteceu no TRT-1
O acórdão em questão tratava de um pedido de indenização por doença ocupacional movido por um coletor de lixo contra sua empregadora (processo nº 0101045-58.2023.5.01.0561). O juiz de primeira instância havia condenado a empresa ao pagamento de R$ 40 mil por danos morais. A 6ª Turma do TRT-1 manteve a indenização e ainda fixou pensão mensal equivalente a 6,25% da última remuneração do trabalhador.
O problema não estava no mérito da decisão. Estava em um trecho que não deveria ter sido publicado. O texto do acórdão incluía a seguinte frase, que é claramente um retorno de prompt de IA:
"Segue minuta de fundamentação elaborada no padrão solicitado, em estilo Maurício, analisando especificamente o conteúdo do laudo pericial e dos esclarecimentos apresentados pela perita."
Essa frase não é fundamentação jurídica. É a resposta de um sistema de inteligência artificial confirmando que executou uma instrução. Ela foi esquecida no documento antes da publicação.
A Explicação do Juiz
Após a repercussão do caso, amplamente noticiado por veículos como Migalhas e JOTA, o juiz Maurício Madeu se pronunciou. Ele afirmou que utiliza ferramentas de IA "estritamente como instrumento auxiliar, voltado à organização de ideias, à redação e ao aprimoramento das minutas de voto, sem qualquer delegação da atividade decisória, que permanece integralmente sob sua responsabilidade".
O magistrado classificou o ocorrido como um erro de revisão, não como um problema de conteúdo decisório. Em suas palavras: "O ocorrido não compromete a validade ou a higidez da decisão proferida, tratando-se de equívoco formal pontual, plenamente passível de correção, como ocorre com os erros materiais em geral".
Madeu também mencionou o contexto de sua atuação: juiz convocado, com volume elevado de processos para analisar.
A Presidência do TRT-1, por sua vez, informou que não se manifestaria sobre o caso, por se tratar de matéria ligada à atuação jurisdicional do juiz.
Não é um Caso Isolado
O episódio do TRT-1 não é o primeiro do gênero no Brasil. Há registro de situação semelhante envolvendo o desembargador Magid Nauef Láuar, do Tribunal de Justiça de Minas Gerais (TJMG), em que um prompt de IA também foi esquecido em uma decisão judicial publicada. O padrão se repete: o magistrado usa IA para redigir minutas, esquece de remover o cabeçalho ou a instrução retornada pelo sistema, e o documento é publicado com esse conteúdo visível.
Esses casos levantam uma questão mais ampla do que o simples erro de revisão. Se prompts aparecem em decisões publicadas, quantas decisões contêm conteúdo gerado por IA que passou despercebido, sem qualquer marcação visível? A resposta, por definição, é impossível de mensurar sem auditorias sistemáticas.
Para advogados que atuam nessas instâncias, o cenário exige atenção redobrada. Assim como já documentamos em casos de advogados multados por usar IA em petições, o problema não está na ferramenta em si, mas na ausência de verificação humana efetiva antes da publicação ou do protocolo.
O Que Diz a Regulamentação do CNJ
O uso de inteligência artificial generativa no Poder Judiciário brasileiro é regulamentado pela Resolução nº 615/2025 do Conselho Nacional de Justiça (CNJ), que atualizou normas anteriores editadas em 2020. A resolução estabelece diretrizes para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de IA no âmbito do Judiciário.
Entre os princípios centrais da norma estão:
- A supervisão humana é obrigatória em todas as etapas dos ciclos de desenvolvimento e de utilização das soluções de IA.
- Qualquer conteúdo gerado por IA deve passar por análise e validação de uma autoridade competente antes de produzir efeitos.
- Os sistemas de IA devem ser compatíveis com direitos fundamentais, devido processo legal, ampla defesa, contraditório e identidade física do juiz.
- A IA não substitui o magistrado, funcionando apenas como ferramenta de apoio à decisão judicial.
O caso do TRT-1 coloca em xeque justamente o requisito de supervisão humana. Se o prompt apareceu no acórdão publicado, a etapa de revisão antes da publicação foi, no mínimo, insuficiente. Isso não é uma questão de intenção, mas de processo.
A Posição da OAB
A Ordem dos Advogados do Brasil tem acompanhado de perto o avanço da IA no Judiciário. Daniela Borges, presidente da OAB-BA, foi direta ao comentar o episódio: "Uma vez que o CNJ traz essa obrigatoriedade, se há um indício de que a decisão não passou por um controle humano efetivo, há um fundamento para se questionar a validade do ato".
Beto Simonetti, presidente do Conselho Federal da OAB, reforça a posição institucional da entidade: "A Inteligência Artificial é uma ferramenta poderosa, mas jamais substituirá a advocacia. Relações humanas não são equações matemáticas. O Direito nasce da interpretação, da sensibilidade e da responsabilidade humana".
A OAB aprovou recomendações para o uso ético e responsável da IA na prática jurídica, defendendo regulamentação e supervisão como condições inegociáveis para garantir a qualidade das decisões.
O Que Isso Significa para Advogados
Se você atua em processos no TRT-1 ou em qualquer outro tribunal, o caso Maurício Madeu traz implicações práticas que merecem atenção.
Sobre as decisões que você recebe: Uma decisão que contenha trechos gerados por IA sem supervisão adequada pode ter sua validade questionada. A declaração da presidente da OAB-BA indica que há fundamento jurídico para esse questionamento, especialmente à luz da Resolução CNJ nº 615/2025. Se você identificar indícios desse tipo em uma decisão, vale consultar um especialista sobre os instrumentos processuais cabíveis.
Sobre as peças que você produz: O risco não é exclusivo dos magistrados. Advogados que usam IA para redigir petições e não verificam o conteúdo antes do protocolo estão expostos a problemas semelhantes, incluindo a inclusão de citações inexistentes, súmulas que não existem ou precedentes distorcidos. Já documentamos casos de ação rescisória fundada em jurisprudência falsa gerada por IA no TJ-RJ, com consequências processuais sérias para as partes envolvidas.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.
O Contexto Mais Amplo: IA no Judiciário Brasileiro
O CNJ lançou recentemente a segunda edição da Pesquisa Sobre Inteligência Artificial Generativa no Judiciário, voltada a magistrados e servidores de todo o país. O objetivo é mapear como essas tecnologias estão sendo utilizadas nas rotinas de trabalho, identificando benefícios, desafios e oportunidades de aprimoramento. Os dados dessa pesquisa, quando publicados, devem oferecer um panorama mais preciso sobre a extensão do uso de IA generativa em decisões judiciais brasileiras.
O ministro Luís Roberto Barroso já havia sinalizado, em declaração anterior, que "a inteligência artificial poderia escrever primeiras versões de sentenças judiciais", reconhecendo ao mesmo tempo "a necessidade de regulação, governança e transparência". O caso do TRT-1 ilustra exatamente o ponto de tensão entre a eficiência que a IA oferece e os riscos que surgem quando os processos de revisão falham.
A questão não é proibir o uso de IA no Judiciário. A Resolução CNJ nº 615/2025 não proíbe. A questão é garantir que a supervisão humana seja real, não apenas formal. Um prompt esquecido em um acórdão publicado é a evidência mais visível de que essa supervisão, em pelo menos um caso documentado, não funcionou como deveria.
Para advogados que já incorporaram IA ao seu fluxo de trabalho, o episódio serve como lembrete de que a tecnologia exige processo. Usar IA para redigir é uma escolha legítima. Publicar ou protocolar sem revisar o resultado é o risco que precisa ser gerenciado, seja você magistrado ou advogado. Entender como usar o ChatGPT em petições sem incorrer em multas é o primeiro passo para adotar a tecnologia com responsabilidade.