Voltar ao blog
IA na Advocacia21 de março de 20268 min de leitura

5 erros que advogados cometem ao usar IA generativa

Confiar cegamente no ChatGPT é só o começo. Veja os 5 erros mais comuns de advogados ao usar IA e como evitar cada um deles.


A inteligência artificial chegou para ficar na advocacia brasileira. Mais de 77% dos profissionais do Direito já usam IA pelo menos uma vez por semana, segundo dados de 2026 (Fonte: Canaltech, março/2026), mas nem todos sabem como fazê-lo corretamente. Os erros advogados IA cometem podem custar caro: multas que chegam a 20 salários-mínimos, advertências de desembargadores e até comunicação à OAB.

A boa notícia é que esses erros são evitáveis quando você conhece os riscos e sabe como se proteger. Neste artigo, vamos analisar os 5 erros mais comuns que advogados cometem ao usar IA generativa e como corrigi-los na prática.

Erro 1: Não verificar as citações geradas pela IA

O erro mais grave e comum é confiar cegamente nas citações que o ChatGPT, Gemini ou outras IAs generativas criam. Em julho de 2025, a 2ª Vara Federal de Londrina/PR multou um advogado em 20 salários-mínimos por apresentar manifestações processuais com artigos de lei inexistentes e jurisprudência inverídica, gerados por inteligência artificial (Fonte: Migalhas, julho/2025).

O caso não é isolado. Em abril de 2025, o Tribunal de Justiça do Estado do Paraná (TJPR) rejeitou um recurso fundamentado em 43 "jurisprudências" inexistentes, todas criadas pela ferramenta de IA (Fonte: JOTA, abril/2025). O relator, desembargador Gamaliel Seme Scaff, foi claro: "O advogado tem obrigação de, no mínimo, revisar as peças feitas com o uso dessas ferramentas".

Por que isso acontece?

As IAs generativas não consultam bases de dados dos tribunais em tempo real. Elas geram texto com base em padrões aprendidos durante o treinamento, o que pode resultar em citações que "parecem" reais mas são completamente inventadas. Esse fenômeno tem nome: alucinação de IA.

Erro 2: Usar IA genérica para pesquisa jurisprudencial

Muitos advogados cometem o erro de usar o ChatGPT ou outras IAs genéricas como se fossem ferramentas de pesquisa jurisprudencial. Perguntam "qual a jurisprudência do STJ sobre X" e esperam respostas confiáveis.

Em março de 2026, a Sexta Turma do Tribunal Superior do Trabalho (TST) aplicou multa de 1% sobre o valor da causa a uma empresa e seu advogado por citação de jurisprudência inexistente nas contrarrazões de um recurso (Fonte: TST, março/2026). Para o relator, a tentativa de dar aparência de legitimidade à argumentação por meio de decisões inexistentes configura dolo processual e abuso do direito de defesa.

A diferença crucial

Existe uma diferença fundamental entre:

  • IA para brainstorming: "Me ajude a estruturar argumentos sobre X"
  • IA para pesquisa jurisprudencial: "Cite 5 acórdãos do STJ sobre X"

O primeiro uso é seguro e produtivo. O segundo é arriscado e pode gerar citações falsas.

Erro 3: Copiar e colar sem contextualizar

Outro erro comum é usar a IA como um "gerador de texto jurídico" e simplesmente copiar e colar o resultado sem adaptação. Em janeiro de 2026, a juíza Bruna de Oliveira Farias, da comarca de Planaltina/GO, determinou a emenda de uma petição inicial após identificar graves falhas formais atribuídas ao uso inadequado de IA (Fonte: Metrópoles, janeiro/2026).

A magistrada observou: "A utilização de ferramentas de inteligência artificial na elaboração de petições exige supervisão humana rigorosa, especialmente quanto à verificação da veracidade de citações doutrinárias e jurisprudenciais".

Problemas do copiar e colar

  • Argumentos genéricos que não se aplicam ao caso específico
  • Linguagem artificial que destoa do seu estilo profissional
  • Citações descontextualizadas ou inadequadas ao caso
  • Falta de coerência com a estratégia processual

Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz.

Erro 4: Não informar ao cliente sobre o uso de IA

A Recomendação n. 001/2024 da OAB é clara: o advogado deve informar o cliente sobre o uso de ferramentas de IA no atendimento (Fonte: Legalcloud, novembro/2024). Muitos profissionais ignoram essa orientação, criando um risco desnecessário.

Como explica o conselheiro federal Francisco Queiroz Caputo Neto: "A recomendação já alerta para o nosso código de ética e disciplina... com relação aos alertas para os ditames éticos da nossa profissão, essa é a base central da nossa recomendação" (Fonte: OAB, novembro/2024).

Por que a transparência importa?

  • Confiança: O cliente tem direito de saber como seu caso está sendo conduzido
  • Proteção profissional: Em caso de questionamentos futuros, você pode demonstrar que agiu com transparência
  • Compliance: Seguir as recomendações da OAB mostra compromisso com a ética profissional

Erro 5: Atribuir responsabilidade à ferramenta ou ao estagiário

O último erro é tentar transferir a responsabilidade quando algo dá errado. "Foi a IA que inventou" ou "o estagiário que usou a ferramenta" não são justificativas aceitas pelos tribunais.

A Recomendação 001/2024 da OAB é categórica: o advogado é integralmente responsável por todo o conteúdo que subscreve, independentemente da ferramenta utilizada na produção. A IA não transfere, divide nem mitiga a responsabilidade profissional do advogado.

A responsabilidade é sempre sua

Quando você assina uma petição, assume total responsabilidade pelo conteúdo, independentemente de como foi produzido. Isso vale para:

  • Textos escritos por estagiários
  • Conteúdo gerado por IA
  • Citações copiadas de outras fontes
  • Argumentos sugeridos por terceiros

Como corrigir cada erro

1. Implemente um processo de verificação

Nunca protocole uma peça sem verificar todas as citações. Para cada jurisprudência mencionada:

  • Confirme que o processo existe
  • Verifique se o número está correto
  • Leia o inteiro teor para confirmar que apoia seu argumento
  • Confira se a ementa corresponde ao que você citou

2. Use IA genérica apenas para brainstorming

Reserve o ChatGPT e similares para:

  • Estruturar argumentos
  • Revisar redação
  • Sugerir abordagens diferentes
  • Criar rascunhos iniciais

Para pesquisa jurisprudencial, use sempre os sites oficiais dos tribunais ou ferramentas especializadas que consultam bases reais.

3. Adapte e contextualize o conteúdo

Nunca copie e cole diretamente. Sempre:

  • Adapte a linguagem ao seu estilo
  • Contextualize os argumentos ao caso específico
  • Revise a coerência com sua estratégia
  • Verifique se faz sentido para aquele cliente e situação

4. Documente o uso de IA

Crie um protocolo simples:

  • Informe o cliente sobre o uso de IA (pode ser no contrato)
  • Documente quais ferramentas você usa
  • Mantenha registro dos processos de verificação
  • Seja transparente sobre limitações e cuidados

5. Assuma a responsabilidade integral

Entenda que você é 100% responsável pelo que assina. Isso significa:

  • Revisar todo o conteúdo antes de protocolar
  • Verificar cada citação e argumento
  • Garantir que tudo está correto e adequado
  • Ter um processo confiável de controle de qualidade

As boas práticas para uso seguro de IA

Para evitar os erros uso IA advocacia, siga estas boas práticas IA advogado:

Use IA como assistente, não como substituto

A IA deve acelerar seu trabalho, não substituir seu julgamento profissional. Use-a para:

  • Gerar ideias iniciais
  • Estruturar argumentos
  • Revisar redação
  • Acelerar pesquisas preliminares

Mantenha a supervisão humana

Todo conteúdo gerado por IA precisa passar pelo seu crivo profissional. Você deve:

  • Revisar cada parágrafo
  • Verificar cada citação
  • Confirmar cada argumento
  • Adaptar ao caso específico

Invista em verificação

Casos reais mostram que a verificação inadequada pode custar caro. Considere:

  • Ferramentas especializadas em verificação
  • Processos internos de controle
  • Treinamento da equipe
  • Protocolos de qualidade

Mantenha-se atualizado

A regulamentação sobre IA na advocacia evolui rapidamente. Acompanhe:

  • Recomendações da OAB
  • Decisões dos tribunais
  • Resoluções do CNJ
  • Boas práticas do mercado

O futuro da IA na advocacia

Segundo reportagens, a adoção de IA entre escritórios de médio e grande porte aumentou 45% em 2025, e a tendência é de crescimento. As principais aplicações envolvem redação de peças processuais (76%), pesquisa jurídica (59%) e análise de contratos (56%) (Fonte: Estadão, março/2026).

Mas o crescimento vem acompanhado de maior fiscalização. O CNJ publicou a Resolução nº 615/2025, que estabelece a Política de Uso de Inteligência Artificial no Poder Judiciário, determinando que os tribunais auditem sistemas de IA, garantam supervisão humana e implementem governança técnica e ética (Fonte: Sotto Maior & Nagel Advogados Associados, agosto/2025).

Para os advogados, isso significa que o uso responsável de IA não é mais opcional, é uma necessidade profissional. Como observa a recomendação da OAB: "Estamos sendo desafiados pelo avanço da IA na advocacia brasileira, e a OAB está atenta e preparada para lidar com essas transformações".

Conclusão

Os erros que advogados cometem ao usar IA generativa são sérios, mas evitáveis. A chave está em entender que a IA é uma ferramenta poderosa que exige uso responsável. Não se trata de evitar a tecnologia, mas de usá-la com inteligência e precaução.

Lembre-se: você pode usar ChatGPT para advogados sem risco de multa, desde que siga as boas práticas e mantenha processos adequados de verificação. A responsabilidade é sempre sua, mas os benefícios, quando bem aproveitados, podem transformar sua prática profissional.

errosIA generativaadvogadosboas práticas

Verifique sua próxima peça antes de protocolar

O TeseFirme analisa suas citações com 3 IAs independentes e entrega um relatório de verificação em segundos. Seu primeiro documento é gratuito, sem cartão de crédito.

Criar conta gratuita

Artigos relacionados