O Tribunal Superior Eleitoral (TSE) multou um advogado por litigância de má-fé depois que ele protocolou uma petição elaborada pelo ChatGPT em um processo de grande repercussão nacional. O caso, que envolve o uso de ChatGPT em petição jurídica com multa aplicada por tribunal, acendeu o debate sobre os limites éticos e legais do uso de inteligência artificial na advocacia brasileira e serve como alerta direto para os mais de 1,3 milhão de advogados ativos no país.
O que aconteceu no TSE
O advogado tentou ingressar no processo como amicus curiae em ação que analisava a conduta do ex-presidente Jair Bolsonaro durante uma reunião com embaixadores em 2022, ocasião em que Bolsonaro teria atacado a credibilidade do sistema eleitoral brasileiro. O processo tramitava no TSE e tinha alto grau de visibilidade pública.
Na petição protocolada, o advogado declarou explicitamente que não tinha contribuição pessoal a oferecer ao juízo. Em vez disso, submeteu ao tribunal o resultado de uma conversa com uma ferramenta de inteligência artificial generativa. O ministro relator Benedito Gonçalves não recebeu bem a manifestação.
"Causa espécie que o instituto [amicus], que exige que o terceiro demonstre ostentar representatividade adequada em temas específicos, tenha sido manejado por pessoa que afirma explicitamente não ter contribuição pessoal a dar e, assim, submete ao juízo uma fábula, resultante de conversa com uma inteligência artificial."
O ministro também observou que as expressões utilizadas ao final da petição deixavam transparecer outro objetivo:
"Expressões utilizadas ao final da petição deixam entrever o objetivo de que, com a juntada dessa manifestação a autos de grande relevo, o 'protesto' ganhasse palco impróprio."
A multa aplicada foi de dois salários mínimos, valor equivalente a aproximadamente R$ 2.604,00, com base na condenação por litigância de má-fé, segundo reportagens da Forbes Brasil e da CNN Brasil.
A intenção por trás da petição
As circunstâncias do caso trazem uma camada adicional de complexidade. Há informações conflitantes nas fontes consultadas sobre o real objetivo do advogado. Parte das reportagens indica que ele pretendia, com a juntada da petição gerada por IA, protestar contra o próprio uso de inteligência artificial no sistema jurídico. Outras fontes sugerem que ele genuinamente buscava contribuir com o processo na condição de amicus curiae.
Independentemente da intenção, o resultado foi o mesmo: uma multa por litigância de má-fé e uma decisão que qualificou o documento como uma "fábula". O ministro Benedito Gonçalves deixou claro que o advogado, como profissional da área jurídica, tinha obrigação de saber que aquela petição era inadequada para o fim pretendido.
Esse ponto é central. Não se trata apenas de um problema técnico com a ferramenta utilizada. Trata-se de responsabilidade profissional. A IA não protocola a petição. O advogado sim.
O que a OAB e o CNJ dizem sobre o tema
O caso não ocorre em um vácuo regulatório. Tanto a Ordem dos Advogados do Brasil quanto o Conselho Nacional de Justiça já se posicionaram sobre o uso de inteligência artificial na prática jurídica.
A OAB, por meio da Recomendação nº 001/2024 do Conselho Federal, estabeleceu que:
"A utilização de sistemas de IA por advogados e advogadas não pode reduzir a qualidade dos serviços jurídicos prestados, tampouco falsear informações, jurisprudências e fatos apresentados em juízo."
O documento recomenda que o uso de IA generativa respeite a confidencialidade das informações dos clientes, seja feito de forma ética e responsável, e que as práticas recomendadas sejam atualizadas periodicamente conforme a tecnologia evolui.
Já o CNJ publicou a Resolução nº 615/2025, que estabelece princípios, diretrizes e requisitos para o desenvolvimento, utilização e governança de soluções baseadas em inteligência artificial no âmbito do Poder Judiciário. A resolução visa garantir que as soluções de IA respeitem os direitos fundamentais, promovam a transparência e fortaleçam a confiança no sistema de justiça.
O quadro regulatório, portanto, já existe. O problema está na aplicação prática, especialmente quando advogados delegam à IA não apenas tarefas operacionais, mas o próprio raciocínio jurídico que sustenta uma manifestação processual.
Por que petições geradas por IA podem ser problemáticas
O advogado Sérgio Vieira, consultado por veículos especializados sobre o caso, foi direto na avaliação:
"Por serem ferramentas e softwares bastante recentes, ainda não há leis específicas sobre o uso de inteligência artificial em petições ou relacionados. No entanto, ele deve ser feito com bastante cuidado e moderação, pois, assim como nesse caso, seu uso pode ser limitado por outros mecanismos legais."
Vieira também alertou para os riscos de usar IA em casos de maior complexidade:
"A IA deve ser evitada em casos muito complexos ou que dependem de interpretações mais profundas, sendo destinada apenas a tarefas operacionais. Usar o 'pensamento' de uma máquina que se baseia em bancos de dados genéricos para embasar pedidos judiciais é perigoso."
Um dos riscos mais documentados é o das chamadas alucinações de IA: citações de jurisprudência, súmulas ou legislação que simplesmente não existem, geradas com a mesma confiança com que a ferramenta apresenta informações corretas. Esse fenômeno já gerou mais de 700 casos documentados de jurisprudência falsa em tribunais ao redor do mundo, segundo levantamentos especializados.
Se você quer entender melhor como esse problema se manifesta na prática brasileira, o artigo sobre alucinações de IA e seus impactos para advogados detalha casos concretos e os mecanismos por trás do fenômeno.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.
O que este caso ensina sobre o uso responsável de IA
O episódio do TSE não é o primeiro e provavelmente não será o último. Casos semelhantes já foram registrados em outros tribunais brasileiros, como o caso de ação rescisória com jurisprudência falsa no TJ-RJ, que também resultou em sanções ao advogado responsável.
O padrão que emerge desses casos é consistente: o problema não está na ferramenta em si, mas na ausência de revisão crítica por parte do profissional que assina o documento. Quando um advogado protocola uma peça, ele está atestando, com sua assinatura e seu número de OAB, que o conteúdo é adequado, verdadeiro e pertinente. Nenhuma ferramenta de IA assume essa responsabilidade no lugar dele.
Alguns pontos práticos que esses casos reforçam:
- Revisar toda citação jurisprudencial antes de protocolar, independentemente de qual ferramenta foi usada para redigir a peça
- Não usar IA generativa como substituta do raciocínio jurídico em casos complexos ou que exijam interpretação aprofundada
- Documentar o processo de verificação como prova de diligência, especialmente em processos de alta visibilidade
- Conhecer as diretrizes da OAB e as resoluções do CNJ sobre o tema, que já estabelecem parâmetros claros de responsabilidade
Para advogados que querem usar IA com segurança no dia a dia, o guia sobre como usar o ChatGPT em petições sem risco de multa traz um protocolo prático de verificação.
O sinal que o TSE enviou ao mercado jurídico
A decisão do ministro Benedito Gonçalves tem um valor que vai além da multa de dois salários mínimos. Ela estabelece um precedente claro: tribunais brasileiros estão dispostos a sancionar o uso irresponsável de IA na advocacia, mesmo quando o advogado declara abertamente o que fez.
Em um cenário em que mais de 55% dos advogados brasileiros já utilizam IA generativa diariamente, segundo dados de mercado, a pergunta não é mais se a tecnologia será usada. A pergunta é como ela será usada, e quem responderá quando algo der errado.
A resposta, pelo menos por enquanto, continua sendo a mesma de sempre: o advogado que assina a petição.