A alucinação de IA é um fenômeno que está tirando o sono de advogados no mundo inteiro. Quando ferramentas como ChatGPT, Claude ou Gemini "inventam" jurisprudência que não existe, criam súmulas falsas ou citam decisões com números de processo inexistentes, estamos diante do que os especialistas chamam de alucinação de inteligência artificial. Para advogados que usam IA em sua prática diária, entender esse fenômeno não é mais opcional -- é questão de sobrevivência profissional.
O problema ganhou dimensões preocupantes no Brasil. Só em 2025, tribunais registraram vários casos de advogados multados por apresentar petições com jurisprudência falsa gerada por IA (Fonte: Inforchannel). As multas variam de R$ 1.200 a 20 salários-mínimos, sem contar o encaminhamento para a OAB e o constrangimento profissional (Fonte: Inforchannel).
O que é alucinação de IA
Alucinação em inteligência artificial ocorre quando o sistema gera informações que parecem corretas e bem estruturadas, mas são completamente inventadas. O termo "alucinação" pode soar dramático, mas descreve perfeitamente o que acontece: a IA "vê" e relata coisas que não existem na realidade.
Em termos técnicos, a alucinação acontece quando o modelo de linguagem produz texto que não tem base em seus dados de treinamento ou que contradiz informações verificáveis. Para advogados, isso se manifesta de forma especialmente perigosa: números de processos inexistentes, nomes de relatores incorretos, ementas inventadas e até súmulas inteiras que jamais foram editadas por qualquer tribunal.
O que causa alucinação em inteligência artificial? Modelos de IA geram texto prevendo a próxima palavra mais provável, sem consultar bancos de dados reais. Quando não têm informação suficiente, preenchem lacunas com texto que parece correto mas é inventado.
Um exemplo real: segundo reportagens, em abril de 2025, o desembargador Alexandre Freitas Câmara, do TJ-RJ, identificou o que chamou de "alucinação de inteligência" em uma ação rescisória (Fonte: Francês News). A petição inicial citava jurisprudência inexistente do STJ, com número de processo, relator e ementa completamente fabricados pela IA.
Por que as IAs "alucinam"
Para entender por que isso acontece, precisamos compreender como funcionam os modelos de linguagem. Diferentemente do que muitos imaginam, ferramentas como ChatGPT não consultam bancos de dados em tempo real. Elas funcionam por predição probabilística: analisam o contexto da pergunta e geram a resposta palavra por palavra, escolhendo sempre o termo estatisticamente mais provável de aparecer em seguida.
Imagine que você peça para a IA citar uma decisão do STF sobre determinado tema. O sistema "sabe" que decisões do STF têm um formato específico: começam com "STF", seguem um padrão de numeração, têm um relator ministro, uma data e uma ementa. Com base em milhões de textos jurídicos que analisou durante o treinamento, a IA monta uma resposta que segue perfeitamente esse padrão.
O problema é que a IA não verifica se aquela decisão específica realmente existe. Ela apenas gera texto que estatisticamente "parece certo". É como se um estudante de Direito, pressionado em uma prova, inventasse uma citação que soa perfeitamente jurídica, mas nunca existiu.
Esse processo explica por que as alucinações são tão convincentes. A IA não produz texto claramente falso ou desconexo. Pelo contrário, ela cria conteúdo que segue todas as convenções formais, usa a terminologia correta e mantém coerência interna. Para um leitor desatento, a jurisprudência inventada é indistinguível da real.
Como a alucinação se manifesta em documentos jurídicos
Na prática forense, as alucinações de IA assumem formas específicas que todo advogado precisa conhecer:
Jurisprudência completamente inventada
ChatGPT pode inventar jurisprudência que não existe? Sim. O ChatGPT e outras IAs generativas frequentemente inventam números de processos, nomes de relatores, ementas e até súmulas inteiras que não existem em nenhum tribunal.
De acordo com fontes públicas, em março de 2025, o TST identificou um caso onde a IA atribuiu um precedente falso a uma ministra da própria turma julgadora. A decisão citada tinha número de processo plausível, data coerente e ementa bem redigida, mas nunca havia sido proferida.
Mistura de elementos reais com ficção
Mais sutil e perigosa é quando a IA combina elementos verdadeiros com informações inventadas. Ela pode citar um relator real, mas inventar o número do processo. Ou usar um número de processo existente, mas criar uma ementa completamente diferente da decisão original.
Súmulas e enunciados falsos
A IA frequentemente inventa súmulas que seguem perfeitamente a numeração e o estilo dos tribunais, mas nunca foram editadas. Segundo reportagens, em fevereiro de 2025, o TRT-MG identificou uma petição que citava uma "Súmula 487 do TST" inexistente, resultando em multa de R$ 1.200 ao advogado.
Artigos de lei inexistentes
Embora menos comum, a IA também pode inventar dispositivos legais. Em julho de 2025, a 2ª Vara Federal de Londrina multou um advogado em 20 salários-mínimos por usar artigos de lei inexistentes gerados por IA (Fonte: TRF4).
Diferença entre IA genérica e IA jurídica especializada
Nem todas as ferramentas de IA apresentam o mesmo nível de risco. Existe uma diferença importante entre sistemas generalistas como ChatGPT e soluções especializadas em Direito.
IAs generalistas
Ferramentas como ChatGPT, Claude e Gemini foram treinadas em uma vasta gama de textos da internet, incluindo conteúdo jurídico, mas sem foco específico no Direito brasileiro. Esses sistemas têm conhecimento amplo, mas superficial sobre jurisprudência nacional.
Estudo do Jusbrasil de setembro de 2025 revelou que sistemas generalistas inventaram jurisprudência ou citaram fontes erradas em 43% mais casos que uma IA especializada em Direito brasileiro (Fonte: Inforchannel). Segundo pesquisas, a taxa de alucinação desses sistemas pode chegar a 33% em algumas tarefas específicas (Fonte: arXiv).
IAs jurídicas especializadas
Ferramentas como Jus IA, Jurídico AI e ChatADV foram desenvolvidas especificamente para o mercado jurídico brasileiro. Elas são treinadas em bases de dados jurídicas curadas, com foco em legislação, jurisprudência e doutrina nacionais.
Embora apresentem taxas de erro menores, essas ferramentas não estão imunes à alucinação. A especialização reduz o risco, mas não o elimina completamente. Os melhores modelos especializados ainda apresentam taxa de alucinação de 0,7%, segundo dados de 2025.
Por que até IAs especializadas podem errar
Mesmo as ferramentas mais avançadas e especializadas estão sujeitas à alucinação por limitações técnicas inerentes aos modelos de linguagem atual:
Dados de treinamento desatualizados
Nenhum modelo de IA tem acesso em tempo real a todas as decisões judiciais. Os dados de treinamento sempre têm um "corte temporal", criando lacunas sobre jurisprudência recente.
Interpretação contextual limitada
A IA pode não compreender completamente o contexto específico da consulta, gerando respostas tecnicamente corretas, mas inadequadas para a situação concreta.
Pressão por completude
Quando solicitada a fornecer exemplos ou precedentes, a IA tende a "completar" a resposta mesmo quando deveria admitir não ter informações suficientes. É mais provável que ela invente uma citação do que responda "não encontrei precedentes sobre esse tema".
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.
A verificação como última linha de defesa
Diante desses riscos, a verificação se torna etapa obrigatória no fluxo de trabalho de qualquer advogado que use IA. Como saber se uma citação jurídica gerada por IA é real? Verifique o número do processo nos sites oficiais dos tribunais, confira o nome do relator e a data, e confirme que a ementa corresponde ao tema. Ferramentas de verificação automatizada como o TeseFirme fazem isso com 3 IAs independentes.
Verificação manual
O método tradicional envolve consultar cada citação nos sites oficiais dos tribunais. Para uma petição com 10 precedentes, isso pode levar horas de trabalho manual, mas é a única forma de garantir 100% de precisão.
Verificação automatizada
Ferramentas especializadas em verificação usam múltiplos modelos de IA para analisar cada citação. O princípio é simples: se uma IA inventa uma jurisprudência, as outras divergirão ao tentar encontrar a mesma informação, sinalizando o problema.
O TeseFirme, por exemplo, submete cada citação a três modelos independentes. Quando há consenso, a probabilidade de erro é mínima. Quando há divergência, a citação é sinalizada para revisão manual.
O papel da supervisão humana
A Resolução CNJ nº 615/2025 estabeleceu que todas as ferramentas de IA no Poder Judiciário devem contar com supervisão humana efetiva (Fonte: CNJ). Para advogados, essa diretriz serve como orientação: a IA deve ser uma ferramenta, nunca um substituto do julgamento profissional.
Casos reais e suas consequências
Os tribunais brasileiros têm documentado sistematicamente casos de jurisprudência falsa gerada por IA. Advogados já foram multados em valores que chegam a 20 salários-mínimos, além do constrangimento profissional e possível processo disciplinar na OAB (Fonte: TRF4).
TJ-SC e as multas progressivas
O Tribunal de Justiça de Santa Catarina tem sido particularmente rigoroso. Em fevereiro de 2025, a 6ª Câmara Civil aplicou multa de 10% do valor da causa por "jurisprudência fictícia" (Fonte: TJSC). Meses depois, a 5ª Câmara Criminal multou outro advogado por usar precedentes inventados em habeas corpus (Fonte: Migalhas).
TRT-2 e o precedente da multa de 5%
O Tribunal Regional do Trabalho da 2ª Região estabeleceu jurisprudência importante ao aplicar multa de 5% por jurisprudência fictícia, criando precedente para casos similares na Justiça do Trabalho (Fonte: TRT-2).
Vara Federal de Londrina: o caso dos 20 salários-mínimos
O caso mais grave documentado até agora ocorreu na 2ª Vara Federal de Londrina, onde um advogado foi multado em 20 salários-mínimos por apresentar artigos de lei inexistentes e precedentes completamente inventados pela IA (Fonte: TRF4).
Recomendações da OAB e regulamentação
O Conselho Federal da OAB publicou recomendações para o uso de IA generativa na advocacia (Fonte: OAB). O documento estabelece diretrizes claras sobre responsabilidade profissional, transparência e verificação de conteúdo gerado por IA.
Princípios fundamentais
A recomendação da OAB enfatiza que o advogado permanece integralmente responsável por todo conteúdo apresentado em juízo, independentemente da ferramenta utilizada para produzi-lo (Fonte: OAB). A IA pode auxiliar, mas não exime o profissional de sua obrigação de verificação.
Transparência e comunicação
Embora não seja obrigatório informar ao juiz sobre o uso de IA, a OAB recomenda transparência quando relevante. Mais importante é garantir que todo conteúdo gerado seja verificado e validado antes da apresentação.
Confidencialidade e proteção de dados
A recomendação também aborda questões de sigilo profissional, orientando cautela ao inserir informações sensíveis em ferramentas de IA que possam armazenar ou processar dados em servidores externos.
Como se proteger: estratégias práticas
Para advogados que querem aproveitar os benefícios da IA sem correr riscos desnecessários, algumas estratégias são fundamentais:
Use IA como ponto de partida, não como produto final
Trate o conteúdo gerado por IA como um rascunho que precisa ser refinado, verificado e validado. Nunca copie e cole diretamente sem revisão crítica.
Implemente verificação sistemática
Desenvolva um checklist para verificar toda jurisprudência citada: número do processo, tribunal, relator, data e correspondência da ementa com o tema abordado.
Mantenha registro da verificação
Documente o processo de verificação das citações. Em caso de questionamento judicial, ter evidências de que as citações foram checadas demonstra diligência profissional.
Considere ferramentas de verificação automatizada
Soluções como o TeseFirme automatizam o processo de verificação, oferecendo relatórios detalhados sobre a confiabilidade de cada citação em segundos.
O futuro da IA jurídica e a questão da confiabilidade
Paradoxalmente, estudos recentes mostram que modelos de IA mais avançados podem apresentar taxas de alucinação mais altas, não menores. Isso ocorre porque sistemas mais sofisticados são capazes de gerar texto ainda mais convincente, tornando as alucinações mais difíceis de detectar.
Evolução dos modelos
À medida que os modelos evoluem, eles se tornam melhores em imitar padrões linguísticos complexos, incluindo o estilo formal da linguagem jurídica. Isso torna as alucinações progressivamente mais sofisticadas e convincentes.
A importância da verificação independente
Essa tendência reforça a importância de sistemas de verificação independentes. A solução não está em confiar cegamente em modelos mais avançados, mas em implementar camadas múltiplas de verificação.
Responsabilidade profissional permanente
Independentemente dos avanços tecnológicos, a responsabilidade pela precisão e veracidade das informações apresentadas em juízo permanecerá sempre com o advogado. A IA é uma ferramenta poderosa, mas não transfere responsabilidade profissional.
A alucinação de IA é um desafio real que exige adaptação dos profissionais do Direito. Compreender os erros mais comuns e implementar processos de verificação robustos não é apenas uma boa prática -- é uma necessidade para manter a credibilidade profissional e evitar sanções judiciais.
O caminho não é abandonar a IA, mas usá-la de forma inteligente e responsável. Com as precauções adequadas, essas ferramentas podem revolucionar a prática jurídica, aumentando produtividade sem comprometer a qualidade. A chave está na verificação sistemática e na manutenção da supervisão humana em todas as etapas do processo.