Voltar ao blog
Verificação15 de abril de 202611 min de leitura

Direito do Consumidor e IA: verificação de citações em ações de massa

Ações de consumo têm alto volume e dependem de jurisprudência dos TJs. Veja como usar IA sem cair em citações falsas ao reproduzir petições em escala.


Quem atua com direito do consumidor IA jurisprudência sabe que o volume de ações é diferente de qualquer outra área. Telecom, bancos, companhias aéreas, planos de saúde: são setores que geram milhares de demandas repetitivas por mês, com teses jurídicas praticamente idênticas e fatos que variam apenas nos números do contrato. Nesse cenário, a IA generativa virou aliada quase indispensável. O problema é que, quando ela erra, o erro não aparece numa única peça, mas pode aparecer em várias ao mesmo tempo.

Por que advogados de consumidor estão entre os que mais usam IA

O contencioso consumerista tem uma característica que o torna particularmente suscetível à automação: alta repetitividade com baixa margem por processo. Um escritório que atende carteiras de consumidores lesados por cobranças indevidas, cancelamentos de voos ou negativações indevidas precisa produzir volume para que a operação seja economicamente viável.

Segundo dados de 2026, 65,9% dos escritórios de advocacia já utilizam IA para elaboração de peças processuais, enquanto 59,1% aplicam a ferramenta na revisão e organização de documentos (Fonte: Advtech Pro). No contencioso de massa, esses números tendem a ser ainda maiores, porque a eficiência é condição de sobrevivência do modelo de negócio.

A lógica é simples: você cria um template de petição inicial para ação de indenização por dano moral contra operadora de telefonia, alimenta com os dados do cliente e a IA preenche, adapta o texto e cita a jurisprudência aplicável. Em vez de três horas por peça, você gasta vinte minutos. Multiplicado por cinquenta ações na semana, a economia é enorme.

O risco está exatamente nessa equação. Se o template contiver uma citação falsa, ela pode se multiplicar junto com a eficiência.

"Ao utilizar um sistema de IA generativa, o(a) advogado(a) deve garantir o uso ético da tecnologia, de modo que o julgamento profissional não seja realizado por meio de sistemas de IA generativa sem supervisão humana, não sendo delegada nenhuma atividade privativa da advocacia aos sistemas." -- Recomendação do Conselho Federal da OAB (Fonte: OAB Santa Maria)

O risco específico das ações em massa: o erro que se clona

Advogados de Direito do Consumidor usam IA para peças em massa?

Sim, especialmente em contenciosos repetitivos de telecom, bancos e companhias aéreas. A IA acelera a geração de petições iniciais e recursos em escala. O risco é exatamente esse: erros de citação se multiplicam ao reproduzir o mesmo template em centenas de ações.

Quando um advogado individual usa IA para redigir uma peça isolada e a ferramenta alucina uma súmula inexistente, o problema é grave, mas circunscrito. Quando um escritório de contencioso de massa usa IA para gerar cinquenta petições iniciais a partir de um template comum, e esse template carrega uma citação inventada, o problema se multiplica por cinquenta.

Qual o risco de usar IA em ação de consumo sem verificar?

Se uma citação falsa entrar no template, ela se repete em todas as peças derivadas. Isso expõe o escritório a multas recorrentes, litigância de má-fé em massa e risco reputacional multiplicado por dezenas ou centenas de ações.

Há ainda um agravante comportamental: quanto mais vezes você usa o mesmo template sem problemas, menor é a atenção que dedica à revisão. A repetição cria confiança. E confiança excessiva em material gerado por IA, sem verificação independente, é exatamente o que os juízes têm punido.

Para entender melhor como o fenômeno das alucinações de IA afeta a prática jurídica de forma mais ampla, vale ler o que os advogados precisam saber sobre alucinação de IA.

Casos reais de litigância de má-fé por citação falsa

Os casos que chegaram a público nos últimos meses deixam claro que o Judiciário brasileiro não está tratando o assunto com indulgência.

TJSC, fevereiro de 2025

A 6ª Câmara Civil do Tribunal de Justiça de Santa Catarina aplicou multa por litigância de má-fé a um agravante após identificar o uso de jurisprudências e doutrinas inexistentes em um recurso. A multa correspondeu a 10% sobre o valor atualizado da causa. O advogado alegou "uso inadvertido" do ChatGPT. A OAB/SC foi informada do caso (Fonte: G1).

O desembargador relator foi direto:

"O surgimento de novas tecnologias de Inteligência Artificial exige que os operadores a utilizem com cautela e parcimônia, sob o risco de incorrer em reprodução de informações e fundamentos que não encontram respaldo concreto de existência." -- Desembargador do TJSC (Fonte: G1)

2ª Vara Federal de Londrina/PR, julho de 2025

Um advogado foi multado em 20 salários mínimos por apresentar manifestações processuais com artigos de lei inexistentes e jurisprudência inverídica gerados por inteligência artificial. O juiz federal substituto Igor de Lazari Barbosa Carneiro reconheceu a prática de litigância de má-fé e ato atentatório à dignidade da Justiça, determinando ainda o envio de ofício à OAB do Paraná (Fonte: Migalhas).

Esses não são casos isolados. Para um panorama mais completo das punições já aplicadas a advogados por uso irresponsável de IA, a jurisprudência sobre o tema está se consolidando rapidamente.

O que chama atenção nesses casos é a consequência dupla: além da multa processual, há a comunicação à OAB, abrindo caminho para processo disciplinar. Em ações de massa, onde o mesmo advogado subscreve dezenas de peças com o mesmo vício, essa exposição se multiplica proporcionalmente.

O papel das teses dos TJs e da repercussão geral do STJ

Quais tribunais importam mais para citações em consumo?

O STJ é a referência para teses em recurso repetitivo, os TJs estaduais têm suas próprias súmulas e orientações locais, e o STF entra nas questões constitucionais. Cada ação precisa de jurisprudência atualizada dos três níveis.

No direito do consumidor, a estrutura de precedentes funciona em camadas:

STJ e recursos repetitivos

O Superior Tribunal de Justiça uniformiza a interpretação da legislação federal por meio dos recursos repetitivos. Só no segundo semestre de 2025, o STJ julgou 42 temas sob essa sistemática (Fonte: Migalhas). No primeiro semestre do mesmo ano, foram outros 37 temas (Fonte: Migalhas). Isso significa que, ao longo de 2025, quase 80 teses vinculantes foram fixadas ou revisadas. Um template criado no início do ano pode estar desatualizado no segundo semestre.

TJs estaduais

Cada tribunal estadual tem suas próprias súmulas, enunciados e orientações de câmaras especializadas. Uma tese pacificada no TJSP sobre dano moral em cancelamento de voo pode ter redação diferente no TJRJ ou no TJSC. Citar a súmula errada, ou citar com o número trocado, é um erro que a IA comete com frequência porque os dados de treinamento misturam fontes de diferentes tribunais sem distinguir a origem.

STF

Para questões constitucionais, como a aplicação do CDC a relações com o poder público ou a competência para julgamento de certas demandas, o STF é a referência. Aqui, o risco de alucinação é menor em volume, mas o impacto de uma citação errada é proporcionalmente maior.

O problema prático é que a IA generativa não distingue entre uma tese fixada ontem e uma que foi superada há dois anos. Ela gera texto fluente e confiante independentemente da validade da informação.

Como usar IA com verificação em ações de massa

A solução não é abandonar a IA. É criar um processo de verificação que seja tão sistemático quanto o processo de geração.

Etapa 1: Isole as citações do template

Antes de usar um template em escala, mapeie todos os pontos onde há citações jurisprudenciais. Não apenas as que você incluiu conscientemente, mas também as que a IA inseriu automaticamente durante a geração do texto. Ferramentas de IA generativa têm o hábito de incluir citações de forma orgânica no meio de parágrafos, sem sinalizar que estão fazendo isso.

Etapa 2: Verifique cada citação antes de escalar

Esse é o ponto crítico. Verificar uma citação manualmente significa acessar o banco de dados do tribunal, localizar o acórdão ou súmula, confirmar o número, a data, a ementa e se a tese ainda está vigente. Para um template que será usado em cem ações, esse investimento de tempo na verificação inicial é completamente justificado.

Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz. O mecanismo de consenso entre múltiplos modelos é especialmente útil aqui: se um modelo de IA inventou uma citação, os outros dois vão divergir e sinalizar o problema.

Etapa 3: Atualize os templates periodicamente

Dado o ritmo de julgamentos repetitivos no STJ, um template de petição de consumidor pode ficar desatualizado em questão de meses. Defina uma rotina de revisão, pelo menos trimestral, para verificar se as teses citadas ainda estão vigentes e se há novas teses mais favoráveis à sua tese.

Etapa 4: Documente o processo de verificação

Caso um juiz questione uma citação, a capacidade de demonstrar que houve um processo de verificação prévia é relevante para afastar a configuração de litigância de má-fé. Um relatório de verificação exportável, com data e resultado da análise por citação, funciona como prova de diligência.

O checklist de verificação antes de protocolar é um bom ponto de partida para estruturar esse processo no seu escritório.

Etapa 5: Nunca delegue a assinatura

A recomendação da OAB é clara: nenhuma atividade privativa da advocacia pode ser delegada a sistemas de IA sem supervisão humana. Isso inclui a verificação final das citações. Alguém com capacidade técnica para avaliar a jurisprudência precisa revisar cada peça antes da assinatura, mesmo que o processo de geração e verificação seja amplamente automatizado.

O quadro regulatório que está se formando

O ambiente regulatório em torno do uso de IA na advocacia está evoluindo rapidamente, e isso afeta diretamente o contencioso de consumidor.

A Resolução CNJ nº 615/2025, publicada em março de 2025, define princípios e requisitos para o desenvolvimento, uso e governança de soluções baseadas em IA no Poder Judiciário. A norma estabelece critérios voltados à transparência e à supervisão humana, e proíbe sistemas que impeçam a revisão de decisões por humanos. Os tribunais têm até março de 2026 para se adequar (Fonte: Enfam).

No campo legislativo, o Projeto de Lei 6707/25 determina que fornecedores e desenvolvedores de IA tenham responsabilidade civil por danos causados aos consumidores, válida para defeitos ou falhas gerados por comportamento autônomo ou imprevisível dos sistemas (Fonte: Câmara dos Deputados). Se aprovado, isso cria uma camada adicional de complexidade para escritórios que usam IA em ações de consumo sem documentar o processo de verificação.

O Conselho Federal da OAB, por sua vez, aprovou recomendações específicas para o uso de IA generativa na prática jurídica, com destaque para quatro diretrizes: legislação aplicável, confidencialidade e privacidade, prática jurídica ética e comunicação sobre o uso de IA generativa (Fonte: OAB Santa Maria).

Para entender as implicações práticas da litigância de má-fé por uso de IA em jurisprudência, o quadro sancionatório já está bem delineado tanto no CPC quanto na jurisprudência recente.

Verificação em lote: a prioridade antes de protocolar dezenas de peças

O contencioso de massa tem uma janela crítica que muitos escritórios subestimam: o momento entre a geração das peças e o protocolo. É nesse intervalo que a verificação precisa acontecer, e ela precisa ser eficiente o suficiente para não eliminar o ganho de produtividade que a IA proporcionou.

A lógica da verificação em lote funciona assim: em vez de verificar cada peça individualmente depois de gerada, você verifica o template uma vez, de forma rigorosa, antes de escalar. Cada citação do template é submetida a verificação independente. O template aprovado vira o padrão do escritório para aquela tese. Quando uma nova tese do STJ ou do TJ local altera o entendimento, o template é atualizado e re-verificado antes de voltar ao uso.

Esse processo transforma a verificação de uma tarefa por peça para uma tarefa por template. Em vez de verificar cem petições, você verifica um template. A eficiência se mantém, e o risco se reduz drasticamente.

O custo de não fazer isso está bem documentado: multas de 10% sobre o valor da causa por litigância de má-fé, comunicações à OAB, processos disciplinares, e o dano reputacional de ter o nome associado a jurisprudência falsa em decisões públicas. Para um escritório que processa centenas de ações de consumidor por mês, um único template com citação falsa pode gerar um passivo considerável antes que o problema seja identificado.

O CNJ registrou mais de 39 milhões de novos processos distribuídos em 2025, com acervo total de aproximadamente 75 milhões de ações em tramitação (Fonte: Advtech Pro). Nesse volume, juízes estão mais atentos, não menos, a peças que parecem geradas automaticamente sem revisão. A qualidade da fundamentação jurídica, incluindo a precisão das citações, é um dos poucos elementos que ainda diferencia um advogado cuidadoso de um que apenas automatizou o descuido.

Usar IA no direito do consumidor é uma decisão racional. Usar IA sem verificação de citações, em ações de massa, é uma decisão que pode custar muito mais do que o tempo que você economizou.

direito do consumidorações de massaIA jurídicaverificação citaçõesTJs

Verifique sua próxima peça antes de protocolar

O TeseFirme analisa suas citações com 3 IAs independentes e entrega um relatório de verificação em segundos. Seu primeiro documento é gratuito, sem cartão de crédito.

Criar conta gratuita

Artigos relacionados