Casos Reais9 de maio de 20267 min de leitura

Juiz espanhol é multado por usar ChatGPT para redigir sentença

Magistrado espanhol é multado em 1.000 euros por usar ChatGPT para redigir rascunho de sentença. Decisão inédita levanta questões sobre IA e confidencialidade.


O Conselho Geral do Poder Judiciário da Espanha (CGPJ) aplicou, em decisão inédita, uma multa de 1.000 euros ao juiz Pedro Zagacho Gonçalves por usar o ChatGPT para redigir o rascunho de uma sentença. O caso, que ganhou repercussão internacional, reacende o debate sobre os limites do uso de IA no sistema de justiça e serve de alerta direto para advogados e magistrados brasileiros que utilizam ferramentas como ChatGPT em petições jurídicas, com o risco real de multa e sanção disciplinar em tribunal.

O que aconteceu na Espanha

O juiz foi descoberto de forma involuntária: ele se esqueceu de remover do texto da resolução as consultas feitas ao ChatGPT. As marcas da ferramenta ficaram visíveis no documento oficial, o que levou à abertura do processo disciplinar.

A conduta foi enquadrada como falta grave com base no artigo 418.8 da Lei Orgânica do Poder Judiciário espanhola. O dispositivo considera infração grave a revelação, fora dos canais legalmente previstos, de fatos ou dados conhecidos no exercício das funções judiciais. Em outras palavras, o problema central não foi o uso da IA em si, mas o envio de dados processuais a um sistema externo sem as garantias legais adequadas, o que configurou violação de confidencialidade.

O processo disciplinar teve posições divergentes. O promotor responsável pela ação chegou a defender uma punição mais severa: suspensão de 15 dias por "ignorância indesculpável no cumprimento dos deveres judiciais" mais uma multa adicional de 501 euros. Já o Ministério Público entendeu que os fatos não justificavam qualquer sanção. O CGPJ adotou uma posição intermediária, aplicando apenas a multa de 1.000 euros. A decisão de não suspender o magistrado se baseou no entendimento de que a IA foi usada como apoio, e não como substituta direta da função jurisdicional.

O CGPJ já havia alertado anteriormente que a inteligência artificial não pode produzir sentenças. O caso Zagacho Gonçalves é, segundo reportagens internacionais, a primeira penalidade formal aplicada pelo uso de IA no exercício de função judicial na Espanha.

Por que este caso importa para o Brasil

A situação espanhola não é um episódio isolado. Ela integra um padrão global de tensão entre a adoção acelerada de ferramentas de IA e os marcos regulatórios que ainda estão sendo construídos. No Brasil, esse cenário é especialmente relevante porque mais da metade dos advogados brasileiros já utiliza IA generativa no dia a dia profissional, segundo dados de mercado.

O risco não é apenas disciplinar. Advogados brasileiros já foram multados por apresentar jurisprudência inexistente gerada por IA em petições. Casos como esses estão documentados e têm se tornado referência nos debates sobre responsabilidade profissional no uso de tecnologia. Se você ainda não conhece esses precedentes, vale a leitura sobre advogados multados por usar IA em casos reais.

O ponto de convergência entre o caso espanhol e o contexto brasileiro é preciso: a questão não é se usar IA, mas como usar com responsabilidade.

O que diz a regulamentação brasileira

O Conselho Nacional de Justiça (CNJ) editou a Resolução nº 615/2025, que estabelece normas para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de inteligência artificial no âmbito do Poder Judiciário. A norma é clara quanto ao papel da IA:

"O uso dessas ferramentas será de caráter auxiliar e complementar, consistindo em mecanismos de apoio à decisão, vedada a utilização como instrumento autônomo de tomada de decisões judiciais sem a devida orientação, interpretação, verificação e revisão por parte do magistrado, que permanecerá integralmente responsável pelas decisões tomadas e pelas informações nelas contidas." (Resolução CNJ nº 615/2025, Art. 19, §3º, II)

A resolução ancora a regulamentação em quatro pilares: ética, segurança, transparência e supervisão humana obrigatória em todas as etapas do ciclo de desenvolvimento e uso das ferramentas de IA. A norma não proíbe o uso da tecnologia. Ela define os limites e as responsabilidades, e o magistrado permanece integralmente responsável pelo conteúdo de suas decisões.

Para advogados, o raciocínio é análogo. O Conselho Federal da OAB publicou a Recomendação 001/2024 sobre o uso de IA generativa na advocacia, reforçando que a responsabilidade pelo conteúdo das peças processuais é sempre do profissional que as assina.

O problema da confidencialidade que o caso espanhol expõe

Um aspecto do caso de Zagacho Gonçalves que merece atenção especial é o fundamento da sanção: não foi o uso da IA, foi o vazamento de dados processuais para um sistema externo.

Isso é relevante para advogados brasileiros porque a mesma lógica se aplica. Quando você insere dados de um processo em uma ferramenta de IA generativa de uso geral, como o ChatGPT na versão padrão, esses dados podem ser utilizados para treinamento do modelo ou ficam expostos a políticas de privacidade que não foram desenhadas para o sigilo profissional exigido pela OAB.

A Lei Geral de Proteção de Dados (LGPD) e o Código de Ética e Disciplina da OAB impõem deveres de confidencialidade que precisam ser considerados antes de qualquer uso de ferramenta externa. O caso espanhol é um lembrete concreto de que esse risco é real e pode resultar em sanção formal.

Daniela Borges, presidente da OAB-BA, resume bem o problema do ponto de vista da fundamentação: "A fundamentação que esconde o peso do algoritmo na decisão é uma fundamentação incompleta."

O risco das citações inventadas e a camada adicional de problema

Além da confidencialidade, existe outro risco que afeta diretamente advogados: a alucinação de IA, ou seja, a geração de jurisprudência, súmulas e doutrina que simplesmente não existem.

Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.

Esse tipo de verificação é especialmente importante porque o advogado que assina a peça responde pelo conteúdo, independentemente de qual ferramenta foi usada para redigir o rascunho. Já há mais de 700 casos documentados globalmente de jurisprudência falsa gerada por IA apresentada em juízo. No Brasil, o caso de ação rescisória com jurisprudência falsa no TJ-RJ é um exemplo próximo das consequências práticas desse problema.

O que dizem os especialistas

Beto Simonetti, presidente do Conselho Federal da OAB, posicionou o debate de forma direta: "A Inteligência Artificial é uma ferramenta poderosa, mas jamais substituirá a advocacia. Relações humanas não são equações matemáticas. O Direito nasce da interpretação, da sensibilidade e da responsabilidade humana."

A posição não é contrária à tecnologia. É uma delimitação clara de papéis: a IA pode acelerar pesquisa, organizar argumentos e redigir rascunhos, mas a responsabilidade pela análise jurídica, pela adequação ao caso concreto e pela integridade das informações é intransferível.

O que o caso espanhol muda na prática

Para magistrados e advogados, o caso Zagacho Gonçalves estabelece um precedente disciplinar concreto. Algumas conclusões práticas que emergem do episódio:

  • Usar IA como apoio não é proibido, mas exige supervisão ativa e responsabilidade integral pelo resultado final
  • Dados processuais não devem ser inseridos em ferramentas externas sem verificação das políticas de privacidade e conformidade com as normas de sigilo profissional
  • Rastros de uso de IA em documentos oficiais podem configurar infração, mesmo que involuntários
  • A regulamentação existe e está sendo aplicada, tanto na Espanha quanto, de forma crescente, no Brasil via CNJ e OAB

O debate não é novo, mas a multa aplicada ao juiz espanhol dá a ele uma dimensão concreta que vai além do teórico. Não se trata mais de discutir se a IA vai ou não transformar o Direito. Trata-se de entender que essa transformação já está em curso e que as consequências do uso irresponsável são reais, documentadas e crescentes.

Para advogados brasileiros que já utilizam IA no dia a dia, o caminho não é abandonar as ferramentas. É incorporar processos de verificação que garantam que o que chega ao tribunal é preciso, íntegro e defensável. Se você quer entender melhor como usar o ChatGPT na advocacia sem incorrer em sanções, o artigo sobre como usar ChatGPT para advogados sem multa traz um guia prático para esse equilíbrio.

Fontes desta matéria

ChatGPTIAéticatribunalsentençaEspanha

Transforme o caso real em prevenção concreta

Revise sua próxima peça com relatório de verificação para identificar citações frágeis, trocadas ou inventadas antes do protocolo.

Revisar uma peça com relatório

Continue lendo

Leituras complementares