Em 7 de abril de 2026, a 5ª Turma do Superior Tribunal de Justiça proferiu uma decisão que vai marcar a relação entre o judiciário brasileiro e a inteligência artificial: relatórios produzidos por IA generativa, sem validação humana qualificada, não podem ser utilizados como prova em processos penais.
A decisão, relatada pelo ministro Reynaldo Soares da Fonseca, é o primeiro posicionamento do STJ sobre o tema e cria um precedente que vai muito além do caso específico julgado.
Fonte: STJ - Quinta Turma rejeita relatório produzido por IA como prova em ação penal
O caso: Gemini e Perplexity contra a perícia oficial
O processo teve origem em uma denúncia de injúria racial ocorrida após uma partida entre Mirassol e Palmeiras em fevereiro de 2025. O vice-prefeito de São José do Rio Preto, Fábio Marcondes, foi acusado de chamar um segurança do Palmeiras de "macaco velho" durante uma discussão captada em vídeo.
A perícia oficial do Instituto de Criminalística, utilizando análise técnica de fonética e acústica, não conseguiu confirmar a presença do termo ofensivo no áudio. A defesa sustentava que a expressão proferida foi "paca véa", não "macaco velho".
Diante da inconclusividade da perícia oficial, os investigadores da Polícia Civil de São Paulo tomaram uma decisão inédita: submeteram o vídeo às ferramentas de IA generativa Gemini (Google) e Perplexity. Os relatórios gerados por essas ferramentas concluíram que a expressão ofensiva havia sido proferida, e esse material foi a principal base para o oferecimento da denúncia pelo Ministério Público de São Paulo em agosto de 2025.
Fontes: Agência Brasil - STJ rejeita uso de inteligência artificial como prova em ação penal | Conjur - Laudo feito por IA generativa não pode embasar denúncia, diz STJ
Os três pilares da decisão do ministro Reynaldo Soares da Fonseca
1. A natureza probabilística da IA generativa.
O ministro foi direto ao identificar o problema central: ferramentas de IA generativa operam com base em probabilidades e padrões estatísticos, não em análise técnica verificável. Em suas palavras, "um dos riscos inerentes à utilização da inteligência artificial generativa é a alucinação, que consiste na apresentação de informações imprecisas, irreais ou fabricadas, porém com aparência de fidedignidade".
2. O viés de confirmação institucional.
Talvez o ponto mais contundente da decisão, o ministro criticou o que chamou de "viés de confirmação institucional". Os investigadores já tinham uma tese (de que o insulto ocorreu) e usaram a IA para confirmá-la, descartando a conclusão contrária da perícia oficial. Nas palavras do relator: "a substituição de um juízo técnico por conclusões oriundas de inteligência artificial generativa evidenciam um viés de confirmação institucional".
3. A inadequação técnica das ferramentas.
O ministro observou que Gemini e Perplexity são ferramentas que processam texto, não som. Utilizá-las para análise fonética de um áudio é tecnicamente inadequado, o que agrava a fragilidade do relatório.
Consequências práticas
A 5ª Turma determinou a exclusão do relatório de IA dos autos e ordenou que o caso retorne ao Tribunal de Justiça de São Paulo para nova avaliação. Sem o laudo de IA, será preciso determinar se existem outros elementos de prova suficientes para sustentar a denúncia.
Fonte: Sindpd - Relatório produzido por IA é descartado como prova pelo STJ
Por que essa decisão importa para advogados que usam IA no dia a dia
Embora o caso trate especificamente de prova pericial no processo penal, o raciocínio do ministro se aplica de forma ampla. Se o STJ considera que a IA generativa apresenta risco inerente de alucinação e que suas conclusões não são confiáveis sem validação humana qualificada, esse entendimento se estende logicamente a qualquer uso profissional da IA no direito, incluindo:
- Citações de jurisprudência geradas por IA em petições
- Referências legislativas produzidas por assistentes jurídicos de IA
- Fundamentação doutrinária sugerida por ferramentas automatizadas
A decisão reforça que o advogado que assina uma peça baseada em informações geradas por IA é integralmente responsável pela veracidade dessas informações. A IA é ferramenta auxiliar; a responsabilidade é do profissional. Como o próprio Jus IA do Jusbrasil reconheceu publicamente, mesmo a melhor IA jurídica do Brasil registra 12% de margem de erro. Nenhuma ferramenta, por mais especializada que seja, elimina a necessidade de supervisão humana.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz. A verificação independente de citações não é mais apenas uma boa prática. Após essa decisão do STJ, ela se torna uma medida de proteção profissional concreta.
Contexto: o crescimento das multas por citações falsas
Essa decisão não surge isolada. Nos últimos meses, tribunais de todas as instâncias têm aplicado sanções a advogados que apresentaram citações fabricadas por IA:
-
TST (março 2026): Multa de 1% sobre o valor da causa aplicada a empresa e advogado por citação de jurisprudência inexistente, com envio de ofícios à OAB e ao MPF. Fonte: TST - Empresa e advogado são condenados por possível uso de IA com citações falsas
-
TRT-2 (fevereiro 2026): Multa de 5% sobre o valor da causa e ofício à OAB-SP após advogado atribuir citações falsas a "pesquisa feita por estagiários" usando IA. Fonte: Conjur - Uso de jurisprudência falsa criada por IA gera multa e ofício à OAB
-
TSE (março 2026): Multas de até R$ 8,1 mil (cinco salários mínimos) por citação de precedentes inexistentes, com encaminhamento ao MP para apuração de possível crime. Fonte: Conjur - Erros da advocacia com IA irritam tribunais e abrem risco de crime
O cenário é claro: tribunais brasileiros estão cada vez menos tolerantes com citações fabricadas, e a tendência é de agravamento das sanções.