Além do problema das citações falsas, existe um risco mais sutil e talvez mais profundo na adoção massiva de IA pela advocacia brasileira: a homogeneização do raciocínio jurídico. É o que argumenta um artigo publicado na Consultor Jurídico em 8 de abril de 2026.
Fonte: Conjur - Uso de IA é sinal de maturidade, mas compromete debate judicial
O argumento central
A autora, que é subprocuradora-geral do Distrito Federal e mestranda em Direito pela UnB, parte de dados concretos da pesquisa "Impacto da IA Generativa no Direito" (publicada em março de 2026 pela OAB-SP, Jusbrasil, Trybe e ITS Rio):
- 77% dos advogados já utilizam IA generativa em suas rotinas profissionais
- 53% a utilizam especificamente para criar documentos e peças jurídicas
- 64% dos entusiastas acreditam que a IA melhora a qualidade dos documentos
O ponto é: quando mais da metade dos advogados brasileiros usa os mesmos modelos de linguagem, treinados nos mesmos dados, para produzir peças sobre os mesmos temas, o resultado previsível é uma convergência coletiva de argumentação. Petições passam a ter a mesma estrutura, os mesmos fundamentos e as mesmas referências.
Fonte para os dados da pesquisa: Migalhas - OAB/ES participa de relatório sobre IA no setor jurídico - Edição 2026
O risco do "congelamento" jurisprudencial
O artigo cita a pesquisadora Karen Eltis, que alerta para o risco de "congelamento da jurisprudência em uma camisa de força". Segundo Eltis, o algoritmo visa à precisão e à conformidade com o passado, enquanto a jurisprudência precisa caminhar para frente. A inovação jurídica, as soluções criativas e contextuais que não se alinham com a previsibilidade dos algoritmos, pode ser gradualmente excluída do debate.
O artigo também menciona que o CNJ lançou em março de 2026 o Promptus, um banco colaborativo de prompts para IA generativa integrado à Plataforma Digital do Poder Judiciário. E o TRF-6 lançou a Prompteca 2.0, repositório de assistentes de IA generativa testados e validados por comissão curadora de magistrados e servidores. Se magistrados e advogados passam a usar os mesmos prompts padronizados para as mesmas tarefas, a diversidade de raciocínio jurídico é ainda mais comprometida.
Um dado de contexto que amplifica essa preocupação: a pesquisa Datafolha de março de 2026 mostra que 43% dos brasileiros não confiam no STF, o maior índice desde o início da série histórica em 2012. Se o judiciário perde diversidade de raciocínio ao mesmo tempo em que perde confiança pública, o cenário se agrava.
Um exemplo concreto
Para ilustrar o risco, considere um tema jurídico comum: dano moral em relação de consumo por negativação indevida. Se três advogados diferentes usarem três ferramentas de IA diferentes para fundamentar uma petição sobre o mesmo tema, a probabilidade de que as três peças citem os mesmos acórdãos do STJ (REsp 1.061.134/RS sobre dano moral presumido, por exemplo), usem a mesma estrutura argumentativa e cheguem à mesma faixa de valor de indenização é altíssima.
Isso porque os modelos de linguagem aprenderam com o mesmo corpus de decisões, artigos e petições. Eles convergem naturalmente para o "padrão mais provável" de argumentação, que é, por definição, o mais comum e menos original.
Um juiz que recebe 50 petições iniciais por semana sobre negativação indevida, todas com a mesma estrutura e as mesmas citações, vai notar o padrão. A petição que se destaca é aquela que traz argumentação original, contextualizada ao caso específico, com citações pertinentes e não apenas as "mais populares".
A IA gera o padrão. O diferencial do advogado é ir além do padrão.
O que isso tem a ver com verificação de citações
A conexão pode parecer indireta, mas é importante. A verificação de citações é a camada mais básica e mensurável da supervisão humana. Mas o artigo da Conjur lembra que a supervisão precisa ir além: o advogado precisa revisar não apenas se as citações existem, mas se os argumentos são originais, pertinentes e adequados ao caso específico.
Mesmo ferramentas especializadas como o Jus IA, que têm 88% de acerto jurídico segundo estudo duplo-cego, não eliminam o risco de produzir argumentação genérica. A IA deve ser ponto de partida para o raciocínio jurídico, não ponto de chegada. E a verificação de citações, embora necessária, é apenas o primeiro passo de uma supervisão que precisa ser mais profunda.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz. Mas ela libera o advogado para dedicar tempo ao que a IA não pode fazer: pensar criticamente sobre a tese.
Para advogados que utilizam IA, a recomendação é tripla:
- Verifique as citações (se existem e estão corretas)
- Revise os argumentos (se são pertinentes e não apenas genéricos)
- Adicione perspectiva original (o que a IA não pode oferecer)