O Conselho Geral do Poder Judiciário da Espanha (CGPJ) aplicou, em decisão inédita, uma multa de 1.000 euros ao juiz Pedro Zagacho Gonçalves por usar o ChatGPT para redigir o rascunho de uma sentença. O caso, que ganhou repercussão internacional, reacende o debate sobre os limites do uso de IA no sistema de justiça e serve de alerta direto para advogados e magistrados brasileiros que utilizam ferramentas como ChatGPT em petições jurídicas, com o risco real de multa e sanção disciplinar em tribunal.
O que aconteceu na Espanha
O juiz foi descoberto de forma involuntária: ele se esqueceu de remover do texto da resolução as consultas feitas ao ChatGPT. As marcas da ferramenta ficaram visíveis no documento oficial, o que levou à abertura do processo disciplinar.
A conduta foi enquadrada como falta grave com base no artigo 418.8 da Lei Orgânica do Poder Judiciário espanhola. O dispositivo considera infração grave a revelação, fora dos canais legalmente previstos, de fatos ou dados conhecidos no exercício das funções judiciais. Em outras palavras, o problema central não foi o uso da IA em si, mas o envio de dados processuais a um sistema externo sem as garantias legais adequadas, o que configurou violação de confidencialidade.
O processo disciplinar teve posições divergentes. O promotor responsável pela ação chegou a defender uma punição mais severa: suspensão de 15 dias por "ignorância indesculpável no cumprimento dos deveres judiciais" mais uma multa adicional de 501 euros. Já o Ministério Público entendeu que os fatos não justificavam qualquer sanção. O CGPJ adotou uma posição intermediária, aplicando apenas a multa de 1.000 euros. A decisão de não suspender o magistrado se baseou no entendimento de que a IA foi usada como apoio, e não como substituta direta da função jurisdicional.
O CGPJ já havia alertado anteriormente que a inteligência artificial não pode produzir sentenças. O caso Zagacho Gonçalves é, segundo reportagens internacionais, a primeira penalidade formal aplicada pelo uso de IA no exercício de função judicial na Espanha.
Por que este caso importa para o Brasil
A situação espanhola não é um episódio isolado. Ela integra um padrão global de tensão entre a adoção acelerada de ferramentas de IA e os marcos regulatórios que ainda estão sendo construídos. No Brasil, esse cenário é especialmente relevante porque mais da metade dos advogados brasileiros já utiliza IA generativa no dia a dia profissional, segundo dados de mercado.
O risco não é apenas disciplinar. Advogados brasileiros já foram multados por apresentar jurisprudência inexistente gerada por IA em petições. Casos como esses estão documentados e têm se tornado referência nos debates sobre responsabilidade profissional no uso de tecnologia. Se você ainda não conhece esses precedentes, vale a leitura sobre advogados multados por usar IA em casos reais.
O ponto de convergência entre o caso espanhol e o contexto brasileiro é preciso: a questão não é se usar IA, mas como usar com responsabilidade.
O que diz a regulamentação brasileira
O Conselho Nacional de Justiça (CNJ) editou a Resolução nº 615/2025, que estabelece normas para o desenvolvimento, a governança, a auditoria, o monitoramento e o uso responsável de soluções de inteligência artificial no âmbito do Poder Judiciário. A norma é clara quanto ao papel da IA:
"O uso dessas ferramentas será de caráter auxiliar e complementar, consistindo em mecanismos de apoio à decisão, vedada a utilização como instrumento autônomo de tomada de decisões judiciais sem a devida orientação, interpretação, verificação e revisão por parte do magistrado, que permanecerá integralmente responsável pelas decisões tomadas e pelas informações nelas contidas." (Resolução CNJ nº 615/2025, Art. 19, §3º, II)
A resolução ancora a regulamentação em quatro pilares: ética, segurança, transparência e supervisão humana obrigatória em todas as etapas do ciclo de desenvolvimento e uso das ferramentas de IA. A norma não proíbe o uso da tecnologia. Ela define os limites e as responsabilidades, e o magistrado permanece integralmente responsável pelo conteúdo de suas decisões.
Para advogados, o raciocínio é análogo. O Conselho Federal da OAB publicou a Recomendação 001/2024 sobre o uso de IA generativa na advocacia, reforçando que a responsabilidade pelo conteúdo das peças processuais é sempre do profissional que as assina.
O problema da confidencialidade que o caso espanhol expõe
Um aspecto do caso de Zagacho Gonçalves que merece atenção especial é o fundamento da sanção: não foi o uso da IA, foi o vazamento de dados processuais para um sistema externo.
Isso é relevante para advogados brasileiros porque a mesma lógica se aplica. Quando você insere dados de um processo em uma ferramenta de IA generativa de uso geral, como o ChatGPT na versão padrão, esses dados podem ser utilizados para treinamento do modelo ou ficam expostos a políticas de privacidade que não foram desenhadas para o sigilo profissional exigido pela OAB.
A Lei Geral de Proteção de Dados (LGPD) e o Código de Ética e Disciplina da OAB impõem deveres de confidencialidade que precisam ser considerados antes de qualquer uso de ferramenta externa. O caso espanhol é um lembrete concreto de que esse risco é real e pode resultar em sanção formal.
Daniela Borges, presidente da OAB-BA, resume bem o problema do ponto de vista da fundamentação: "A fundamentação que esconde o peso do algoritmo na decisão é uma fundamentação incompleta."
O risco das citações inventadas e a camada adicional de problema
Além da confidencialidade, existe outro risco que afeta diretamente advogados: a alucinação de IA, ou seja, a geração de jurisprudência, súmulas e doutrina que simplesmente não existem.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.
Esse tipo de verificação é especialmente importante porque o advogado que assina a peça responde pelo conteúdo, independentemente de qual ferramenta foi usada para redigir o rascunho. Já há mais de 700 casos documentados globalmente de jurisprudência falsa gerada por IA apresentada em juízo. No Brasil, o caso de ação rescisória com jurisprudência falsa no TJ-RJ é um exemplo próximo das consequências práticas desse problema.
O que dizem os especialistas
Beto Simonetti, presidente do Conselho Federal da OAB, posicionou o debate de forma direta: "A Inteligência Artificial é uma ferramenta poderosa, mas jamais substituirá a advocacia. Relações humanas não são equações matemáticas. O Direito nasce da interpretação, da sensibilidade e da responsabilidade humana."
A posição não é contrária à tecnologia. É uma delimitação clara de papéis: a IA pode acelerar pesquisa, organizar argumentos e redigir rascunhos, mas a responsabilidade pela análise jurídica, pela adequação ao caso concreto e pela integridade das informações é intransferível.
O que o caso espanhol muda na prática
Para magistrados e advogados, o caso Zagacho Gonçalves estabelece um precedente disciplinar concreto. Algumas conclusões práticas que emergem do episódio:
- Usar IA como apoio não é proibido, mas exige supervisão ativa e responsabilidade integral pelo resultado final
- Dados processuais não devem ser inseridos em ferramentas externas sem verificação das políticas de privacidade e conformidade com as normas de sigilo profissional
- Rastros de uso de IA em documentos oficiais podem configurar infração, mesmo que involuntários
- A regulamentação existe e está sendo aplicada, tanto na Espanha quanto, de forma crescente, no Brasil via CNJ e OAB
O debate não é novo, mas a multa aplicada ao juiz espanhol dá a ele uma dimensão concreta que vai além do teórico. Não se trata mais de discutir se a IA vai ou não transformar o Direito. Trata-se de entender que essa transformação já está em curso e que as consequências do uso irresponsável são reais, documentadas e crescentes.
Para advogados brasileiros que já utilizam IA no dia a dia, o caminho não é abandonar as ferramentas. É incorporar processos de verificação que garantam que o que chega ao tribunal é preciso, íntegro e defensável. Se você quer entender melhor como usar o ChatGPT na advocacia sem incorrer em sanções, o artigo sobre como usar ChatGPT para advogados sem multa traz um guia prático para esse equilíbrio.