Voltar ao blog
Casos Reais8 de abril de 20265 min de leitura

STJ rejeita prova gerada por IA em decisão inédita: o que muda para advogados que usam inteligência artificial

A 5ª Turma do STJ decidiu que relatórios de IA generativa não podem ser usados como prova em processos penais. Entenda a decisão e seu impacto.


Em 7 de abril de 2026, a 5ª Turma do Superior Tribunal de Justiça proferiu uma decisão que vai marcar a relação entre o judiciário brasileiro e a inteligência artificial: relatórios produzidos por IA generativa, sem validação humana qualificada, não podem ser utilizados como prova em processos penais.

A decisão, relatada pelo ministro Reynaldo Soares da Fonseca, é o primeiro posicionamento do STJ sobre o tema e cria um precedente que vai muito além do caso específico julgado.

Fonte: STJ - Quinta Turma rejeita relatório produzido por IA como prova em ação penal

O caso: Gemini e Perplexity contra a perícia oficial

O processo teve origem em uma denúncia de injúria racial ocorrida após uma partida entre Mirassol e Palmeiras em fevereiro de 2025. O vice-prefeito de São José do Rio Preto, Fábio Marcondes, foi acusado de chamar um segurança do Palmeiras de "macaco velho" durante uma discussão captada em vídeo.

A perícia oficial do Instituto de Criminalística, utilizando análise técnica de fonética e acústica, não conseguiu confirmar a presença do termo ofensivo no áudio. A defesa sustentava que a expressão proferida foi "paca véa", não "macaco velho".

Diante da inconclusividade da perícia oficial, os investigadores da Polícia Civil de São Paulo tomaram uma decisão inédita: submeteram o vídeo às ferramentas de IA generativa Gemini (Google) e Perplexity. Os relatórios gerados por essas ferramentas concluíram que a expressão ofensiva havia sido proferida, e esse material foi a principal base para o oferecimento da denúncia pelo Ministério Público de São Paulo em agosto de 2025.

Fontes: Agência Brasil - STJ rejeita uso de inteligência artificial como prova em ação penal | Conjur - Laudo feito por IA generativa não pode embasar denúncia, diz STJ

Os três pilares da decisão do ministro Reynaldo Soares da Fonseca

1. A natureza probabilística da IA generativa.

O ministro foi direto ao identificar o problema central: ferramentas de IA generativa operam com base em probabilidades e padrões estatísticos, não em análise técnica verificável. Em suas palavras, "um dos riscos inerentes à utilização da inteligência artificial generativa é a alucinação, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade".

2. O viés de confirmação institucional.

Talvez o ponto mais contundente da decisão, o ministro criticou o que chamou de "viés de confirmação institucional". Os investigadores já tinham uma tese (de que o insulto ocorreu) e usaram a IA para confirmá-la, descartando a conclusão contrária da perícia oficial. Nas palavras do relator: "a substituição de um juízo técnico por conclusões oriundas de inteligência artificial generativa evidenciam um viés de confirmação institucional".

3. A inadequação técnica das ferramentas.

O ministro observou que Gemini e Perplexity são ferramentas que processam texto, não som. Utilizá-las para análise fonética de um áudio é tecnicamente inadequado, o que agrava a fragilidade do relatório.

Fonte: O Tempo - STJ rejeita relatório feito por IA como prova e impõe limites a uso da tecnologia em decisão inédita

Consequências práticas

A 5ª Turma determinou a exclusão do relatório de IA dos autos e ordenou que o caso retorne ao Tribunal de Justiça de São Paulo para nova avaliação. Sem o laudo de IA, será preciso determinar se existem outros elementos de prova suficientes para sustentar a denúncia.

Fonte: Sindpd - Relatório produzido por IA é descartado como prova pelo STJ

Por que essa decisão importa para advogados que usam IA no dia a dia

Embora o caso trate especificamente de prova pericial no processo penal, o raciocínio do ministro se aplica de forma ampla. Se o STJ considera que a IA generativa apresenta risco inerente de alucinação e que suas conclusões não são confiáveis sem validação humana qualificada, esse entendimento se estende logicamente a qualquer uso profissional da IA no direito, incluindo:

  • Citações de jurisprudência geradas por IA em petições
  • Referências legislativas produzidas por assistentes jurídicos de IA
  • Fundamentação doutrinária sugerida por ferramentas automatizadas

A decisão reforça que o advogado que assina uma peça baseada em informações geradas por IA é integralmente responsável pela veracidade dessas informações. A IA é ferramenta auxiliar; a responsabilidade é do profissional. Como o próprio Jus IA do Jusbrasil reconheceu publicamente, mesmo a melhor IA jurídica do Brasil registra 12% de margem de erro. Nenhuma ferramenta, por mais especializada que seja, elimina a necessidade de supervisão humana.

Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz. A verificação independente de citações não é mais apenas uma boa prática. Após essa decisão do STJ, ela se torna uma medida de proteção profissional concreta.

Contexto: o crescimento das multas por citações falsas

Essa decisão não surge isolada. Nos últimos meses, tribunais de todas as instâncias têm aplicado sanções a advogados que apresentaram citações fabricadas por IA:

O cenário é claro: tribunais brasileiros estão cada vez menos tolerantes com citações fabricadas, e a tendência é de agravamento das sanções.

STJIA generativaprova penalalucinação IAGeminiPerplexity

Verifique sua próxima peça antes de protocolar

O TeseFirme analisa suas citações com 3 IAs independentes e entrega um relatório de verificação em segundos. Seu primeiro documento é gratuito, sem cartão de crédito.

Criar conta gratuita

Artigos relacionados