A velocidade com que as instituições jurídicas brasileiras estão reagindo ao problema da IA no direito é notável. Apenas dois dias após a decisão inédita do STJ que rejeitou relatórios de IA generativa como prova penal, a Comissão de Estudo do Direito Penal do Conselho Federal da OAB pautou oficialmente o tema.
Fonte: OAB - Investigação defensiva e uso de IA pautam reunião da Comissão de Direito Penal
O que foi discutido
Na reunião de 9 de abril de 2026, a comissão iniciou a organização de debates sobre o uso da inteligência artificial na produção de prova penal. A presidente da comissão, Maria Carolina Amorim, confirmou que o tema é uma das prioridades para a advocacia criminal.
O colegiado está estruturando estudos técnicos e promovendo eventos com participação de especialistas para qualificar o debate. Além da IA, a comissão também avançou na elaboração de estudos para uma proposta legislativa sobre investigação defensiva, tema que tem conexões com o uso de ferramentas tecnológicas pela defesa.
O cenário regulatório atual
O debate da OAB Federal se soma a um conjunto de normas que já existem sobre o tema:
Recomendação 001/2024 do Conselho Federal da OAB: estabelece que a IA deve ser ferramenta de apoio, subordinada à supervisão humana. Veda a delegação de atividades privativas da advocacia a sistemas de IA e exige que o advogado garanta a veracidade das informações geradas.
Resolução CNJ 615/2025: define diretrizes para o uso responsável de IA no Poder Judiciário, incluindo obrigatoriedade de supervisão humana efetiva e proibição de soluções que não possibilitem revisão humana. Fonte: CNJ - Resolução 615/2025
Resolução TSE 23.755/2026: regulamenta o uso de IA nas eleições de 2026, incluindo proibições de deepfake e obrigatoriedade de rotulagem de conteúdo sintético. Fonte: TSE - TSE aprova calendário eleitoral e regulamenta uso de IA nas Eleições 2026
O que esperar
A tendência é que a regulamentação se torne progressivamente mais rigorosa. Quando instituições como o Conselho Federal da OAB, o CNJ e o TSE estão simultaneamente discutindo limites para a IA, o sinal é claro: o uso irresponsável de IA no direito terá consequências cada vez mais severas.
Para advogados, a recomendação prática é simples: não espere a regulamentação chegar para adotar boas práticas. Verifique suas citações. Documente sua diligência. Mantenha a supervisão humana como etapa obrigatória do seu fluxo de trabalho.
Ferramentas como o TeseFirme fazem essa verificação automaticamente, cruzando cada citação com 3 modelos de IA independentes para identificar inconsistências antes que cheguem ao juiz. A verificação independente de citações é a forma mais concreta e mensurável de demonstrar que você exerce supervisão humana sobre o conteúdo gerado por IA.