Inteligência Artificial para advogados: riscos e regras
A inteligência artificial se tornou-ferramenta de trabalho cotidiana nos escritórios de advocacia brasileiros.
Pesquisa jurisprudencial automatizada, redação assistida de peças, análise de contratos em minutos, due diligence acelerada. Os ganhos de produtividade são reais.
Acontece, porém, que a adoção acrítica dessas ferramentas gerou uma jurisprudência crescente e preocupante.
Tribunais de todo o Brasil vêm aplicando multas por litigância de má-fé, determinando ofícios à OAB e ao Ministério Público e, em casos extremos, extinguindo processos sem resolução do mérito em razão de petições elaboradas com IA sem a devida supervisão profissional.
Em 10 de março de 2026, a Sexta Turma do Tribunal Superior do Trabalho (TST) aplicou sanções simultâneas a empresa e advogado por citações jurisprudenciais inexistentes (possivelmente geradas por IA) em contrarrazões de recurso trabalhista.
A questão não é mais se advogados podem usar IA. É como devem usá-la para que a ferramenta amplifique a competência profissional sem comprometer a ética, o sigilo e a integridade processual.
Quer entender mais sobre o assunto? Faça a leitura completa deste artigo.
O que é inteligência artificial jurídica e como funciona na prática?
Inteligência artificial jurídica é o conjunto de sistemas computacionais que aplicam técnicas de aprendizado de máquina e processamento de linguagem natural para automatizar ou auxiliar tarefas típicas da prática jurídica.
A definição abrange ferramentas com capacidades e riscos muito distintos, e compreender essa distinção é o ponto de partida para o uso responsável.
Os sistemas de pesquisa jurisprudencial automatizada utilizam modelos de linguagem para identificar, sumarizar e ordenar por relevância decisões judiciais em grandes bases de dados.
O risco específico dessa categoria é a “alucinação”, fenômeno pelo qual modelos de linguagem geram referências que aparentam ser reais mas não existem:
- Números de processo;
- Ementas;
- Datas; e
- Relatores plausíveis mas inteiramente fabricados.
Todos os casos de sanção disciplinar e processual documentados no Brasil envolvem esse problema.
Os sistemas de redação assistida auxiliam na estruturação e na redação de peças processuais, contratos e pareceres.
O risco principal não é a alucinação de fatos, que o advogado normalmente percebe, mas a incorporação acrítica de argumentos juridicamente inadequados, referências normativas imprecisas ou estratégias processuais inadequadas ao caso concreto.
A ferramenta não conhece o cliente, não leu os autos integralmente e não tem experiência forense acumulada.
Os sistemas de análise de contratos identificam cláusulas relevantes, sinalizam riscos e comparam documentos com padrões de mercado em velocidade muito superior à revisão humana.
São os de menor risco de uso inadequado, porque o advogado habitualmente verifica o resultado antes de emitir sua opinião.
Ainda assim, a análise automatizada pode não capturar nuances contextuais ou peculiaridades do direito aplicável ao contrato.
A distinção entre IA generativa, que produz conteúdo novo, incluindo texto jurídico, e IA analítica, que processa e classifica conteúdo existente, é relevante para a avaliação de risco.
Sistemas generativos têm potencial de utilidade muito maior, mas também de dano muito maior quando utilizados sem supervisão adequada. É precisamente sobre sistemas generativos que a regulamentação da OAB e as decisões dos tribunais se concentram.
O que a OAB estabelece: a Recomendação 001/2024
A Ordem dos Advogados do Brasil editou, em 2024, a Recomendação 001/2024 do Conselho Federal, o primeiro instrumento normativo específico sobre uso de inteligência artificial generativa na prática jurídica no Brasil.
Embora formalmente uma recomendação, não uma resolução vinculante, o documento estabelece parâmetros que os tribunais já utilizam como referência para avaliar a conduta dos advogados.
A Recomendação é estruturada em torno de cinco princípios.
- Primeiro, a responsabilidade inafastável do advogado: o uso de IA não transfere nem atenua a responsabilidade profissional pelo conteúdo das peças subscritas;
- Segundo, a verificação rigorosa: toda informação, argumento, citação legislativa e referência jurisprudencial produzida por IA deve ser verificada nas fontes primárias antes de ser utilizada;
- Terceiro, a transparência perante o cliente: o advogado deve informar sobre o uso de ferramentas de IA no desenvolvimento do trabalho;
- Quarto, a vedação de delegação: atos privativos da profissão não podem ser delegados à ferramenta sem supervisão qualificada;
- Quinto, a atenção ao sigilo: o advogado deve verificar a política de privacidade da ferramenta antes de inserir informações relativas a clientes ou processos.
O Código de Ética e Disciplina da OAB, em seus artigos sobre dever de diligência, veracidade e lealdade processual, constitui a base normativa subjacente.
O artigo 2º, parágrafo único, inciso II, impõe ao advogado o dever de atuar com zelo e dedicação.
Esses deveres não são modulados pela tecnologia utilizada — a ferramenta que produz o conteúdo não assume a responsabilidade pelo conteúdo produzido.
O que os tribunais brasileiros já decidiram?
A jurisprudência sobre responsabilidade do advogado pelo uso de IA se acumulou rapidamente.
Os casos documentados revelam um padrão consistente: tribunais de diferentes instâncias aplicam sanções crescentes e determinam comunicação à OAB quando identificam citações jurisprudenciais inexistentes ou adulteradas em peças processuais.
O caso mais recente e de maior repercussão foi decidido pela Sexta Turma do Tribunal Superior do Trabalho em 10 de março de 2026.
O relator, ministro Fabrício Gonçalves, identificou inconsistências nos julgados citados nas contrarrazões de uma empresa de telecomunicações em processo de indenização por morte de trabalhador.
A apuração interna do gabinete confirmou que os precedentes não existiam ou apresentavam dados adulterados, incluindo um caso supostamente relatado pela ministra Kátia Arruda, integrante da própria Turma, e outro atribuído a ministro já aposentado com data posterior à aposentadoria.
O colegiado aplicou multa de 1% sobre o valor da causa tanto à empresa quanto ao advogado responsável e determinou o envio de ofícios à OAB e ao Ministério Público Federal para apuração de possíveis infrações disciplinares e criminais.
A posição do relator foi clara: “A responsabilidade pela verificação da veracidade das informações permanece integralmente com o advogado e a parte.”
Em fevereiro de 2026, a Sexta Turma do Tribunal Regional do Trabalho da 2ª Região condenou empresa de serviços terceirizados ao pagamento de multa de 5% sobre o valor da causa por litigância de má-fé no Processo n.º 1001128-84.2024.5.02.0044.
A empresa admitiu nos autos o uso de IA generativa na elaboração das razões recursais.
O relator rejeitou a tentativa de transferir a responsabilidade para estagiários:
A postulação em juízo é ato privativo do advogado, que também é o responsável por seu conteúdo.
A OAB-SP recebeu ofício para apuração disciplinar.
Em outubro de 2025, a Nona Turma do Tribunal Regional do Trabalho de Minas Gerais manteve condenação por litigância de má-fé de R$1.200,00 após advogado citar súmula inexistente gerada por IA para contestar laudo pericial médico.
Em fevereiro de 2025, o Tribunal de Justiça de Santa Catarina advertiu advogado que utilizou ChatGPT para redigir habeas corpus com citações fictícias, comunicando o caso à OAB/SC.
O TRT-12 foi além: em decisão de repercussão nacional, magistrado considerou petição inicial elaborada por IA sem verificação humana como “ato processual inexistente” e extinguiu o processo sem resolução do mérito com base no artigo 485, inciso IV, do CPC.
O padrão que emerge é inequívoco. A alegação de uso inadvertido de IA não afasta a responsabilidade. A transferência de culpa para estagiários não é aceita.
As sanções são cumulativas: processual, disciplinar e potencialmente criminal.
A gravidade aumenta proporcionalmente à relevância do processo: o caso do TST envolvendo morte de trabalhador resultou nas sanções mais severas documentadas até o momento.
Sigilo profissional e LGPD: risco invisível do uso de IA na advocacia
O risco mais visível, a alucinação de jurisprudência, recebe cobertura abundante.
O risco menos visível, mas potencialmente mais grave, é a violação do sigilo profissional por meio das próprias ferramentas utilizadas.
A maioria das plataformas de IA generativa de uso geral, incluindo versões gratuitas e planos individuais de plataformas pagas, utiliza as conversas dos usuários para aprimoramento contínuo dos modelos, salvo configuração específica em contrário ou subscrição de plano empresarial com garantias contratuais.
Quando um advogado insere nessas plataformas informações sobre seu cliente, os fatos de uma causa, a estratégia processual ou documentos sigilosos, esses dados podem ser incorporados ao treinamento do modelo.
O artigo 7º, inciso II, do Estatuto da OAB impõe ao advogado o dever de guardar sigilo sobre as informações obtidas no exercício da profissão.
A violação desse sigilo por qualquer meio, incluindo o uso descuidado de ferramentas tecnológicas, configura infração disciplinar e pode constituir crime de violação de segredo profissional previsto no artigo 154 do Código Penal.
A Lei Geral de Proteção de Dados acrescenta uma camada adicional.
O escritório que processa dados de clientes em plataformas de IA atua como controlador e deve assegurar que o tratamento realizado pela plataforma (na qualidade de operadora) seja compatível com as finalidades para as quais os dados foram coletados, com base legal adequada e com as garantias de segurança exigidas pela lei.
A ausência de contrato de processamento de dados com a plataforma e a inserção de dados sensíveis sem garantias adequadas são vulnerabilidades que a ANPD pode sancionar administrativamente.
A solução prática combina escolha criteriosa da ferramenta, privilegiando plataformas com políticas contratuais de não utilização dos dados para treinamento e conformidade com a LGPD, e compartimentação das informações — nunca inserindo em sistemas de IA dados que identifiquem clientes, partes adversas ou processos específicos sem as salvaguardas contratuais adequadas.
Como usar IA na advocacia com segurança jurídica?
A experiência acumulada nos casos documentados pelos tribunais e nas orientações da OAB permite delinear um protocolo de uso de IA na advocacia que equilibra produtividade e segurança profissional.
Primeiro passo: seleção da ferramenta com critérios jurídicos
Verifique a política de privacidade antes de utilizá-la com informações de clientes.
Plataformas empresariais tendem a oferecer garantias contratuais que as versões de consumo não oferecem.
Avalie se a ferramenta cita as fontes das informações geradas e se essas fontes são verificáveis nas bases de dados primárias.
O segundo passo: verificação obrigatória de toda citação jurisprudencial
O segundo passo é o mais crítico.
Nenhuma referência à decisão judicial, súmula, enunciado ou doutrina gerada por IA deve ser utilizada em peça processual sem verificação direta na fonte primária:
- Sistema de jurisprudência do tribunal;
- Diário Oficial;
- Base de dados do STJ;
- Base de dados do STF.
Esse passo não é opcional! É a principal linha de defesa contra as sanções que os tribunais vêm aplicando.
Terceiro passo: supervisão humana na estruturação da estratégia
O advogado é o único que conhece integralmente os autos, o cliente, o juízo e o contexto da causa.
A IA pode sugerir argumentos e estruturar narrativas, mas a avaliação de qual estratégia serve melhor ao interesse do cliente é julgamento que não pode ser delegado.
Quarto passo: documentação do processo de uso
Manter registro de quais ferramentas foram utilizadas, em que tarefas e com que nível de verificação humana é uma prática de compliance que pode ser relevante em caso de questionamento posterior.
Escritórios europeus que operam sob o regime do AI Act europeu já implementam esses registros como parte de seus protocolos de governança.
O Brasil ainda não tem equivalente normativo específico para o setor jurídico, mas a jurisprudência dos tribunais trabalhistas está construindo, na prática, um padrão de conduta que antecipa o que a regulamentação formal eventualmente consolidará.
Para uma visão integrada do ambiente regulatório de IA no Brasil e na Europa, acesse: direito digital e novas tecnologias.
Perguntas frequentes sobre inteligência artificial para advogados
Qual a melhor inteligência artificial para advogados no Brasil?
Não existe uma resposta única. Os critérios objetivos incluem: precisão e rastreabilidade das fontes, política de privacidade compatível com o sigilo profissional, conformidade com a LGPD e mecanismos de verificação de autenticidade. Independentemente da ferramenta, a Recomendação OAB 001/2024 exige verificação rigorosa de toda informação produzida por IA antes de uso em peças processuais.
O advogado pode usar IA para redigir petições?
Sim, com supervisão humana e verificação rigorosa. A Recomendação OAB n.º 001/2024 admite o uso, mas o advogado permanece integralmente responsável pelo conteúdo subscrito. Tribunais brasileiros já condenaram advogados por litigância de má-fé ao identificar citações jurisprudenciais inexistentes — alucinações de IA — em peças não verificadas, com multas, ofícios à OAB e, em casos extremos, extinção do processo sem mérito.
Existe IA jurídica gratuita para advogados?
Existem ferramentas com versões gratuitas, mas essas versões frequentemente utilizam conversas para treinamento dos modelos, o que levanta questões sérias de sigilo profissional quando o conteúdo envolve dados de clientes. A Recomendação OAB 001/2024 exige verificação da política de privacidade antes de inserir informações de clientes ou processos em qualquer plataforma de IA.
Qual o risco disciplinar do uso indevido de IA na advocacia?
Existem três possíveis consequências/riscos em relação ao uso indevido de IA na advocacia:
- Processuais: multa por litigância de má-fé, honorários e extinção do processo;
- Disciplinares: representação à OAB por violação do dever de diligência e veracidade;
- Criminais: comunicação ao Ministério Público em casos graves.
O TST, em decisão de 10 de março de 2026, aplicou multa de 1% sobre o valor da causa a um advogado e determinou ofícios simultâneos à OAB e ao MPF.
Como a LGPD se aplica ao uso de ferramentas de IA por escritórios de advocacia?
O escritório que utiliza IA para processar dados de clientes atua como controlador nos termos da Lei 13.709/2018. Deve verificar a base legal para o compartilhamento, as garantias contratuais da plataforma e informar o cliente sobre o uso de ferramentas tecnológicas. A violação do sigilo por IA configura (simultaneamente): infração à LGPD, ao Estatuto da OAB e potencialmente crime de violação de sigilo profissional.

Maurício Lindenmeyer Barbieri é sócio da Barbieri Advogados, mestre em Direito pela Universidade Federal do Rio Grande do Sul (UFRGS) e inscrito na Ordem dos Advogados da Alemanha (RAK Stuttgart nº 50.159), de Portugal (Lisboa nº 64443L) e do Brasil (OAB/RS nº 36.798, OAB/DF nº 24.037, OAB/SC nº 61.179-A, OAB/PR nº 101.305 e OAB/SP nº 521.298). Possui registro de Contador sob o nº RS-106371/0 e é membro da Associação de Juristas Brasil-Alemanha.
E-mail: mauricio.barbieri@barbieriadvogados.com
