Inteligência Artificial na Advocacia: ética, LGPD e responsabilidade profissional
A inteligência artificial já faz parte da rotina de escritórios de advocacia em todo o Brasil — não como promessa futura, mas como realidade operacional. Ferramentas que analisam documentos, pesquisam jurisprudência, redigem minutas e monitoram prazos estão disponíveis e são amplamente utilizadas. A questão que se coloca para o advogado contemporâneo não é mais “se” usar essas tecnologias, mas “como” usá-las dentro dos limites éticos, deontológicos e legais que regem o exercício da profissão.
Três regimes normativos convergem nessa resposta. O primeiro é o Código de Ética e Disciplina da OAB e o Estatuto da Advocacia, que definem os deveres de competência, diligência, sigilo e responsabilidade do advogado — deveres que não são suspensos nem modulados pelo uso de tecnologia. O segundo é a Lei Geral de Proteção de Dados (Lei 13.709/2018), que impõe ao escritório que trata dados pessoais de clientes o enquadramento como controlador de dados, com todas as obrigações decorrentes. O terceiro é o marco regulatório da inteligência artificial em formação no Brasil, cujo texto central — o PL 2.338/2023 — foi aprovado pelo Senado em dezembro de 2024 e segue em análise na Câmara dos Deputados.
Este artigo examina esses três eixos com ênfase especial na proteção de dados — dimensão frequentemente negligenciada no debate sobre IA na advocacia, mas que representa o maior vetor de risco jurídico concreto para escritórios que adotam essas ferramentas sem as cautelas necessárias. É o primeiro artigo da área de Direito Digital da Barbieri Advogados.
—
O que muda na prática jurídica com o uso de inteligência artificial
Usos consolidados: análise documental, pesquisa jurisprudencial e minutas
Os casos de uso mais maduros da IA na advocacia brasileira concentram-se em três frentes. A análise documental em larga escala — revisão de contratos, identificação de cláusulas, comparação de versões — é a aplicação com maior ganho de eficiência demonstrável, especialmente em due diligences e auditorias jurídicas. A pesquisa jurisprudencial assistida por IA, que identifica padrões em decisões de tribunais e sugere precedentes relevantes, encurta significativamente o tempo de pesquisa em casos de alta complexidade. A elaboração de minutas e petições com base em modelos pré-aprovados, com personalização automatizada para as peculiaridades do caso concreto, é outra aplicação já difundida.
Em todos esses casos, o denominador comum é o mesmo: a IA opera como ferramenta de auxílio, e não como substituta do julgamento profissional. A Recomendação n. 001/2024 do Conselho Federal da OAB é expressa nesse ponto: nenhuma atividade privativa da advocacia pode ser delegada a sistemas de IA, e a dependência excessiva dessas ferramentas é considerada inconsistente com a prática profissional responsável.
O fenômeno das “alucinações” e o risco jurídico concreto
O maior risco operacional do uso de IA na produção de peças jurídicas é o fenômeno tecnicamente denominado “alucinação” — a geração, por modelos de linguagem, de informações incorretas ou completamente inventadas, apresentadas com aparência de veracidade. No contexto jurídico, a manifestação mais grave desse problema é a citação de jurisprudência inexistente: decisões fabricadas pelo modelo, com números de processo plausíveis, ementas juridicamente coerentes e referências a magistrados reais, mas que simplesmente não constam de nenhuma base de dados.
O advogado que apresenta em juízo jurisprudência gerada por IA sem verificação prévia não pode alegar desconhecimento da ferramenta como excludente de responsabilidade. O dever de diligência previsto no art. 8º do Código de Ética e Disciplina da OAB e a vedação à afirmação de fato inexistente estabelecida no art. 77, I, do Código de Processo Civil imputam ao profissional responsabilidade integral pelo conteúdo das peças que subscreve. A supervisão humana obrigatória sobre todo output gerado por IA não é recomendação facultativa — é requisito de conformidade com as normas que já regem o exercício da advocacia.
—
A regulação da IA na advocacia: OAB, Código de Ética e marco legal
A Recomendação n. 001/2024 do Conselho Federal da OAB
Em 11 de novembro de 2024, o Conselho Federal da OAB aprovou a Recomendação n. 001/2024, elaborada pelo Observatório Nacional de Cibersegurança, Inteligência Artificial e Proteção de Dados da OAB Nacional. O documento não tem força de norma disciplinar — sanções continuam dependendo de previsão legal específica —, mas estabelece as balizas éticas dentro das quais o uso de IA na advocacia é considerado compatível com o exercício profissional.
A Recomendação estrutura-se em quatro pilares. O primeiro é a legislação aplicável: o uso de IA deve estar em conformidade com o Estatuto da Advocacia, o Código de Ética e Disciplina da OAB, a LGPD, o Código de Processo Civil e as leis de propriedade intelectual (Lei 9.609/1998 e Lei 9.610/1998). O segundo pilar é a confidencialidade e privacidade: ao inserir informações em sistemas de IA, o advogado deve zelar pelo sigilo profissional e agir com diligência na escolha do fornecedor, verificando suas políticas de tratamento de dados. O terceiro é a prática jurídica ética: a IA não pode substituir o julgamento profissional, toda saída gerada por IA deve ser integralmente revisada antes de uso em processos, e a veracidade das informações — especialmente em levantamentos jurisprudenciais — é obrigação do advogado. O quarto pilar é a comunicação sobre o uso de IA: o cliente deve ser informado quando ferramentas de IA forem utilizadas no atendimento, e chatbots não podem realizar atividades privativas da advocacia.
O PL 2.338/2023 e o estado atual da tramitação
O PL 2.338/2023, de autoria do Senador Rodrigo Pacheco, constitui o texto central do futuro marco legal da inteligência artificial no Brasil. Aprovado pelo Senado Federal em dezembro de 2024, o projeto tramita na Câmara dos Deputados sob a relatoria do Deputado Aguinaldo Ribeiro e, em março de 2026, aguarda votação na Comissão Especial constituída para esse fim.
Inspirado no EU AI Act europeu, o PL adota uma abordagem baseada em classificação de risco: sistemas de IA são categorizados em risco excessivo, alto risco, baixo risco e risco mínimo, com obrigações proporcionais a cada categoria. Sistemas utilizados em contextos jurídicos — análise de documentos, geração de peças, sistemas de suporte à decisão — poderão enquadrar-se na categoria de alto risco, sujeita a obrigações de transparência, explicabilidade e supervisão humana obrigatória. Para a advocacia, a aprovação do texto reforçará obrigações já existentes na Recomendação OAB n. 001/2024 e na LGPD — mas os deveres éticos e de proteção de dados já estão em vigor independentemente da promulgação do marco legal.
—
Responsabilidade civil do advogado por erros de inteligência artificial
O princípio da supervisão obrigatória e seus fundamentos normativos
A responsabilidade civil do advogado por danos causados ao cliente em decorrência do uso inadequado de IA apoia-se em fundamentos normativos consolidados, que não dependem de regulação específica sobre a tecnologia. O art. 32 do Estatuto da Advocacia (Lei 8.906/1994) estabelece a responsabilidade do advogado pelos atos que, no exercício profissional, praticou com negligência, imprudência ou imperícia. O art. 186 do Código Civil define o ato ilícito como aquele praticado com omissão voluntária ou negligência. A utilização de output de IA sem verificação prévia, que resulte em dano ao cliente, enquadra-se perfeitamente nessas categorias.
A Recomendação n. 001/2024 da OAB, ao estabelecer como obrigatória a revisão integral de toda saída gerada por IA antes de uso em processos judiciais, fixa o padrão de conduta esperado do profissional. O advogado que não adota esse padrão — e causa dano ao cliente em razão disso — dificilmente conseguirá afastar a caracterização de negligência.
Quando o fornecedor da ferramenta pode ser responsabilizado
A responsabilidade do fornecedor da ferramenta de IA pelo dano causado ao cliente do advogado é questão mais complexa, que depende da natureza jurídica da relação entre o escritório e o fornecedor e das condições contratuais estabelecidas. Em princípio, o advogado responde perante o cliente como profissional responsável pelo serviço prestado, e a eventual ação regressiva contra o fornecedor é relação autônoma. A responsabilidade direta do fornecedor perante o cliente final exigiria a demonstração de vínculo contratual ou a aplicação das regras de responsabilidade por fato do produto ou do serviço previstas no Código de Defesa do Consumidor — o que, no contexto B2B entre escritórios e plataformas de tecnologia, nem sempre é viável.
A análise contratual cuidadosa dos termos de serviço e da política de responsabilidade do fornecedor é, portanto, etapa indispensável na seleção de ferramentas de IA. Cláusulas que limitam ou excluem a responsabilidade do fornecedor por erros do modelo devem ser negociadas, e a distribuição de responsabilidades deve estar claramente documentada.
—
LGPD e inteligência artificial: as obrigações do escritório de advocacia como controlador de dados
A dimensão de proteção de dados é, na prática, o maior vetor de risco jurídico concreto para escritórios que adotam ferramentas de IA sem as cautelas necessárias. Enquanto os riscos éticos e disciplinares dependem de processos junto à OAB — procedimentos lentos e pouco frequentes —, as violações à LGPD podem resultar em sanções administrativas aplicadas pela Autoridade Nacional de Proteção de Dados (ANPD) com maior celeridade, além de fundarem ações de responsabilidade civil movidas pelos próprios clientes.
O escritório de advocacia como controlador de dados sob a Lei 13.709/2018
O escritório de advocacia que utiliza ferramentas de IA para processar dados de clientes enquadra-se, nos termos do art. 5º, VI, da Lei 13.709/2018, como controlador de dados pessoais — a pessoa natural ou jurídica que decide sobre o tratamento dos dados. Essa qualificação não depende de volume ou de sofisticação da operação: basta que o escritório utilize informações de clientes — nomes, documentos, dados patrimoniais, informações de saúde em casos previdenciários ou acidentários, dados de menores em processos de família — para alimentar ou interagir com um sistema de IA.
Como controlador, o escritório assume deveres que vão muito além da confidencialidade profissional já exigida pelo Estatuto da Advocacia. A LGPD impõe: a identificação de base legal para cada operação de tratamento (art. 7º); a transparência com o titular sobre o uso de seus dados e as finalidades do tratamento (art. 9º); a adoção de medidas de segurança técnica e administrativa adequadas ao risco (art. 46); a celebração de contrato com os operadores que atuam em nome do escritório (art. 39); e o atendimento às solicitações dos titulares, incluindo acesso, correção, exclusão e portabilidade dos dados (art. 18).
A base legal para o tratamento: qual fundamento ampara o uso de IA com dados de clientes?
A identificação da base legal para o tratamento é o ponto de partida obrigatório de qualquer análise de conformidade. No contexto advocatício, as bases legais mais relevantes são duas: o cumprimento de obrigação legal ou regulatória (art. 7º, II), que ampara o tratamento necessário para o exercício da função de representação; e o legítimo interesse do controlador (art. 7º, IX), que pode amparar atividades de gestão interna do escritório, desde que o interesse seja legítimo, necessário e não seja sobreposto pelos interesses ou direitos fundamentais do titular.
O consentimento (art. 7º, I), embora tecnicamente possível, não é a base legal mais adequada para o contexto advocatício — porque é revogável a qualquer tempo, o que criaria instabilidade operacional significativa. A recomendação é identificar a base legal mais robusta para cada operação específica e documentar esse raciocínio, especialmente para operações que envolvam dados sensíveis (art. 11 da LGPD), como dados de saúde, dados biométricos ou dados de crianças e adolescentes, que exigem base legal específica e mais rigorosa.
O risco invisível: dados do cliente como insumo de treinamento de modelos de IA
O risco mais subestimado — e mais grave — no uso de ferramentas de IA públicas com dados de clientes não é a exposição imediata da informação a terceiros: é a possibilidade de que as interações sejam utilizadas para treinar ou aprimorar o modelo de linguagem subjacente. Quando um advogado insere dados de um cliente em uma ferramenta de IA que utiliza esse conteúdo para treinamento, os dados podem, em tese, ser recuperados por outros usuários em interações futuras — situação que constitui violação simultânea do sigilo profissional e da LGPD.
As políticas de uso das principais ferramentas de IA disponíveis no mercado variam significativamente nesse ponto. Versões empresariais e APIs costumam incluir cláusulas que proíbem o uso dos dados dos clientes para treinamento, enquanto versões gratuitas frequentemente reservam essa possibilidade. A verificação da política de dados do fornecedor — e a exigência contratual de vedação expressa ao uso para treinamento — é medida essencial antes de qualquer uso de IA com dados de clientes.
Transferência internacional de dados: ferramentas estrangeiras e os limites da LGPD
A maioria das ferramentas de IA amplamente utilizadas no mercado jurídico brasileiro é operada por empresas estrangeiras, com processamento de dados em servidores localizados fora do Brasil. Essa configuração ativa as regras de transferência internacional de dados da LGPD (arts. 33 a 36), que exigem que a transferência seja amparada por um dos mecanismos previstos na lei: a adequação do país receptor, cláusulas contratuais padrão aprovadas pela ANPD, normas corporativas globais, ou o consentimento específico do titular.
O escritório que envia dados de clientes brasileiros para plataformas de IA estrangeiras sem verificar a adequação desse mecanismo de transferência incorre em violação da LGPD — independentemente de qualquer outra análise. A regularidade da transferência deve ser verificada caso a caso, com base na política de privacidade do fornecedor e nos termos contratuais aplicáveis. Fornecedores estabelecidos no mercado empresarial geralmente disponibilizam Data Processing Agreements (DPAs) que cobrem essa exigência, mas a análise do documento é obrigação do escritório, não do cliente.
Boas práticas: anonimização, pseudonimização e contratos com fornecedores
A anonimização — processo pelo qual os dados são processados de forma que o titular não possa mais ser identificado — é, tecnicamente, a forma mais robusta de mitigação de risco: dados anonimizados não são dados pessoais para fins da LGPD (art. 5º, III), e seu tratamento não está sujeito às mesmas obrigações. Em contextos jurídicos, a anonimização completa é frequentemente impraticável, pois o dado identificador é parte essencial do caso. A alternativa é a pseudonimização — substituição dos identificadores diretos por códigos ou pseudônimos —, que não elimina o risco, mas o reduz substancialmente e pode ser realizada antes da interação com ferramentas de IA externas.
O contrato com o fornecedor da ferramenta de IA deve ser tratado como documento jurídico crítico, não como mera formalidade de onboarding. Cláusulas essenciais incluem: vedação ao uso dos dados para treinamento de modelos; definição da finalidade específica do tratamento; prazo de retenção e obrigação de exclusão ao término da relação; notificação em caso de incidente de segurança; e mecanismos de transferência internacional conforme a LGPD. A ausência dessas previsões não é aceitável quando dados de clientes estão envolvidos.
O papel da ANPD e as sanções aplicáveis ao escritório inadimplente
A Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei 13.709/2018 e estruturada pelo Decreto 10.474/2020, tem competência para fiscalizar o cumprimento da LGPD por todos os agentes de tratamento, incluindo escritórios de advocacia. As sanções previstas no art. 52 da LGPD incluem advertência, multa de até 2% do faturamento da pessoa jurídica no Brasil (limitada a R$ 50 milhões por infração), publicização da infração, bloqueio ou eliminação dos dados irregulares, e suspensão do banco de dados. A ANPD, que iniciou sua atividade sancionatória de forma gradual, tem ampliado progressivamente sua capacidade fiscalizatória.
Além das sanções administrativas, a violação da LGPD funda ação de responsabilidade civil diretamente pelo titular dos dados afetados — no caso do escritório, pelo próprio cliente cujos dados foram tratados irregularmente. A exposição a esse risco é real, e a documentação das medidas de conformidade adotadas pelo escritório é, ao mesmo tempo, obrigação legal e elemento de defesa em eventual processo.
—
Sigilo profissional e IA: os limites que a tecnologia não pode cruzar
O sigilo como dever absoluto e sua interação com o uso de IA
O sigilo profissional do advogado, previsto no art. 7º, II, do Estatuto da Advocacia e regulado nos arts. 25 a 27 do Código de Ética e Disciplina da OAB, é um dever absoluto — não admite gradações, não é modulado pela conveniência operacional e não é suspenso pelo uso de tecnologia. Todo dado fornecido pelo cliente ao advogado para o exercício do mandato está coberto pelo sigilo, independentemente do meio pelo qual foi comunicado ou do suporte em que está armazenado.
A inserção de informações sigilosas em ferramentas de IA — especialmente plataformas públicas que não oferecem garantias contratuais de confidencialidade — representa violação desse dever. A circunstância de que a ferramenta seja amplamente utilizada, ou de que o uso seja feito com boa-fé, não constitui justificativa suficiente. O Código de Ética e Disciplina da OAB não comporta a escusa de “desconhecimento técnico” como excludente de responsabilidade disciplinar quando o dano é causado por negligência na escolha ou no uso de ferramentas de trabalho.
Ferramentas públicas versus soluções privadas: a diferença jurídica relevante
A distinção jurídica entre ferramentas de IA públicas — disponíveis gratuitamente ou em versões de baixo custo, sem contrato específico de proteção de dados — e soluções privadas ou empresariais — com DPA, SLA e garantias contratuais de confidencialidade — não é meramente técnica: é a fronteira entre o uso permitido e o uso que viola o sigilo profissional e a LGPD.
Ferramentas como o ChatGPT em sua versão gratuita, assistentes de IA integrados a plataformas de uso geral, e qualquer sistema que não ofereça contrato de processamento de dados específico para uso empresarial não devem receber dados identificáveis de clientes. O uso deve limitar-se a tarefas que não envolvam dados pessoais: pesquisa de teses jurídicas abstratas, revisão de linguagem em textos genéricos, brainstorming de argumentos sem referência a casos concretos. Para qualquer tarefa que envolva dados reais de clientes, a ferramenta deve ser uma solução empresarial com contrato de dados adequado.
Como avaliar a política de privacidade de um fornecedor de IA jurídica
A avaliação da política de privacidade de um fornecedor de IA jurídica deve ser conduzida com o rigor aplicado a qualquer contrato relevante do escritório. Os pontos críticos a verificar são: se os dados inseridos são utilizados para treinamento do modelo (e se há mecanismo de opt-out); onde os dados são processados e armazenados (jurisdição aplicável); qual o prazo de retenção dos dados após o encerramento da relação; quais terceiros têm acesso aos dados e em que condições; e quais são as medidas de segurança técnica implementadas (criptografia em trânsito e em repouso, controle de acesso, registro de auditoria).
Para uma análise mais aprofundada das obrigações de proteção de dados aplicáveis a empresas e escritórios que tratam dados pessoais em escala, recomendamos a leitura de nosso artigo sobre LGPD para empresas: obrigações, sanções e conformidade.
—
Como usar IA na advocacia com responsabilidade: protocolo prático
Validação obrigatória antes de qualquer uso em peças ou pareceres
Todo conteúdo gerado por IA — pesquisa jurisprudencial, minutas contratuais, argumentação jurídica, cálculos — deve ser verificado pelo advogado antes de uso em qualquer documento com consequências jurídicas. A verificação não é uma formalidade: é a etapa que distingue o uso profissional do uso negligente. Para pesquisa jurisprudencial, a verificação significa localizar a decisão original na base de dados do tribunal, confirmar a existência do processo e a autenticidade da ementa. Para minutas e argumentação, significa revisar a adequação técnica, a precisão normativa e a coerência lógica com a estratégia do caso concreto.
Transparência com o cliente sobre o uso de IA
A Recomendação n. 001/2024 da OAB recomenda que o cliente seja informado sobre o uso de ferramentas de IA no atendimento. Essa transparência serve a dois propósitos simultâneos: garante o consentimento informado do cliente sobre o tratamento de seus dados, e preserva a relação de confiança que é o fundamento do mandato advocatício. A comunicação não precisa ser técnica nem alarmar o cliente: pode ser feita por cláusula na proposta de honorários ou no contrato de prestação de serviços, indicando que o escritório utiliza ferramentas tecnológicas, incluindo inteligência artificial, com supervisão humana integral e em conformidade com as normas aplicáveis.
Critérios para seleção de fornecedores e cláusulas contratuais essenciais
A seleção de fornecedores de ferramentas de IA deve observar, no mínimo, os seguintes critérios: disponibilidade de Data Processing Agreement (DPA) específico para uso empresarial; vedação contratual expressa ao uso de dados para treinamento de modelos; localização do processamento de dados e adequação às regras de transferência internacional da LGPD; certificações de segurança reconhecidas (ISO 27001 ou equivalente); e histórico de resposta a incidentes de segurança.
O contrato com o fornecedor deve prever, além das cláusulas de proteção de dados já mencionadas, um SLA (Service Level Agreement) com penalidades para falhas de disponibilidade, notificação obrigatória em caso de incidente de segurança no prazo exigido pela LGPD (72 horas para incidentes com risco relevante), e mecanismo claro de portabilidade ou exclusão de dados ao término da relação.
—
Perguntas frequentes
1) O uso de IA na advocacia é permitido pela OAB?
Sim, com condições. O Conselho Federal da OAB aprovou, em 11 de novembro de 2024, a Recomendação n. 001/2024, que estabelece diretrizes para o uso ético de IA generativa na prática jurídica. O documento não proíbe o uso, mas impõe conformidade com o Estatuto da Advocacia, o Código de Ética, a LGPD e o CPC; supervisão humana obrigatória sobre todo conteúdo gerado; garantia do sigilo profissional; e transparência com o cliente sobre o uso da tecnologia. Atividades privativas da advocacia — representação, subscrição de peças, assessoramento jurídico — não podem ser delegadas a sistemas de IA.
2) O advogado responde por erro gerado por IA em uma petição?
Sim, integralmente. A IA não transfere, divide nem mitiga a responsabilidade profissional do advogado. O profissional é responsável por todo conteúdo que subscreve, independentemente da ferramenta utilizada na produção. O uso de IA sem supervisão adequada — especialmente quando resulta em citação de jurisprudência inexistente ou argumento juridicamente equivocado — pode acarretar responsabilidade disciplinar perante a OAB, responsabilidade civil por danos ao cliente, e, conforme o caso, responsabilidade por litigância de má-fé nos termos do art. 77 do CPC.
3) Posso inserir dados do cliente em ferramentas como ChatGPT ou similares?
Não, sem cautelas específicas. A inserção de dados identificáveis de clientes em ferramentas de IA públicas — que utilizam interações para treinamento de modelos — viola simultaneamente o sigilo profissional e a LGPD. Para uso de IA com dados de clientes, é necessária uma solução com DPA que proíba expressamente o uso para treinamento, garanta criptografia e controle de acesso, e esteja em conformidade com as regras de transferência internacional da LGPD. O uso de ferramentas públicas deve limitar-se a tarefas que não envolvam dados identificáveis.
4) O que são “alucinações” de IA e qual o risco prático para o advogado?
Alucinações são informações geradas por IA que são incorretas, imprecisas ou completamente inventadas, mas apresentadas com aparência de veracidade. No contexto jurídico, o risco mais grave é a citação de jurisprudência inexistente — decisões fabricadas com números plausíveis, ementas coerentes e referências a magistrados reais, mas que não constam de nenhuma base de dados. O advogado que apresentar em juízo jurisprudência gerada por IA sem verificação responde disciplinarmente perante a OAB e pode ser sancionado por litigância de má-fé, além de causar dano direto ao cliente.
5) A LGPD se aplica ao uso de ferramentas de IA por escritórios de advocacia?
Sim. O escritório que utiliza IA para processar dados pessoais de clientes enquadra-se como controlador de dados sob o art. 5º, VI, da LGPD. Como controlador, deve identificar base legal para o tratamento, informar os clientes sobre o uso de IA, celebrar DPA com os fornecedores das ferramentas, adotar medidas de segurança adequadas ao risco e atender às solicitações dos titulares. Violações à LGPD podem resultar em sanções da ANPD e em ações de responsabilidade civil movidas pelos próprios clientes.
6) O PL 2.338/2023 já está em vigor e o que muda para a advocacia?
Não. Em março de 2026, o PL 2.338/2023 tramita na Câmara dos Deputados — aprovado pelo Senado em dezembro de 2024, aguarda votação na Comissão Especial. O projeto adota classificação de risco inspirada no EU AI Act e impõe obrigações de transparência e supervisão humana. Para a advocacia, a aprovação reforçará deveres já existentes na Recomendação OAB n. 001/2024 e na LGPD. Advogados não precisam aguardar o marco legal: as obrigações éticas e de proteção de dados já estão em vigor e demandam conformidade imediata.
—
Conclusão
O uso de inteligência artificial na advocacia não é questão de futuro — é realidade presente que exige postura profissional informada e responsável. Os três eixos normativos que regem esse uso — ética profissional, proteção de dados e marco regulatório da IA — convergem em uma direção clara: a tecnologia amplia capacidades, mas não transfere responsabilidade.
A LGPD representa, na prática, o maior vetor de risco jurídico imediato para escritórios que adotam ferramentas de IA sem as devidas cautelas. O enquadramento do escritório como controlador de dados, as obrigações de base legal, de transparência e de contratos com fornecedores, o risco de treinamento de modelos com dados sigilosos e as regras de transferência internacional são dimensões que demandam análise técnica específica — e que, frequentemente, são negligenciadas no entusiasmo pela adoção tecnológica.
O advogado que domina esses três campos — ética, proteção de dados e regulação de IA — não apenas se protege de riscos disciplinares e civis: oferece ao cliente uma camada adicional de segurança jurídica que, em um mercado cada vez mais orientado por tecnologia, é em si um diferencial competitivo.
—
Este artigo foi redigido para fins de informação e debate, não devendo ser considerado uma opinião legal para qualquer operação ou negócio específico.
© 2026. Direitos Autorais reservados a Barbieri Advogados.
—
Equipe de Redação da Barbieri Advogados é responsável pela produção e revisão de conteúdos técnicos, assegurando comunicação clara, precisa e alinhada aos valores institucionais. A Barbieri é inscrita na OAB/RS sob o nº 516.
E-mail: contato@barbieriadvogados.com
