IA no Direito

Riscos da IA na Advocacia: com Modelos Práticos

Riscos da IA na Advocacia: com Modelos Práticos — artigo completo sobre IA no Direito com fundamentação legal e jurisprudência atualizadas. Plataforma Advogando.AI.

5 de agosto de 20257 min de leitura

Automatize suas peças jurídicas com IA — petições, contratos e documentos prontos em minutos.

Experimentar Grátis
Riscos da IA na Advocacia: com Modelos Práticos

A inteligência artificial (IA) tem revolucionado diversos setores, e a advocacia não é exceção. Ferramentas de IA oferecem promessas de maior eficiência, redução de custos e análises mais precisas. No entanto, a adoção dessa tecnologia não está isenta de riscos, que exigem atenção redobrada dos profissionais do Direito. Neste artigo, exploraremos os principais desafios e perigos da utilização da IA na advocacia, fornecendo exemplos práticos e fundamentação legal para orientar os advogados na navegação segura por essa nova fronteira.

O Marco Regulatório da IA no Brasil

Embora o Brasil ainda não possua uma legislação específica e abrangente para a inteligência artificial (IA), o debate sobre a necessidade de um marco regulatório está em andamento. Diversos projetos de lei tramitam no Congresso Nacional, buscando estabelecer diretrizes para o desenvolvimento, uso e responsabilização em relação à IA. Até que uma legislação consolidada seja aprovada, o uso da IA na advocacia deve ser pautado pelos princípios gerais do Direito, como a Lei Geral de Proteção de Dados (LGPD) e o Estatuto da Advocacia e da OAB.

Riscos da IA na Advocacia

A utilização da IA na advocacia apresenta diversos riscos que devem ser cuidadosamente avaliados pelos profissionais. Alguns dos principais desafios incluem.

1. Viés e Discriminação

Os algoritmos de IA são treinados com grandes volumes de dados, que podem conter vieses e preconceitos presentes na sociedade. Se esses dados não forem cuidadosamente selecionados e tratados, a IA pode reproduzir e até amplificar essas discriminações em suas análises e decisões. Na advocacia, isso pode resultar em decisões injustas, como a negação de benefícios ou a aplicação de penas desproporcionais a determinados grupos sociais.

Exemplo Prático: Um sistema de IA utilizado para triagem de currículos em um escritório de advocacia pode, inadvertidamente, discriminar candidatos de determinadas etnias ou gêneros, caso tenha sido treinado com dados históricos que reflitam preconceitos passados.

Fundamentação Legal: A Constituição Federal, em seu artigo 5º, garante a igualdade de todos perante a lei, proibindo qualquer forma de discriminação. A LGPD, em seu artigo 20, estabelece o direito do titular dos dados de solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado, caso essas decisões afetem seus interesses.

2. Falta de Transparência e Explicabilidade

Muitos modelos de IA, especialmente os baseados em deep learning, são considerados "caixas pretas", ou seja, é difícil compreender como eles chegam a determinadas conclusões. Essa falta de transparência pode ser problemática na advocacia, onde a fundamentação e a justificativa das decisões são essenciais. Se um advogado utiliza uma IA para embasar sua argumentação, ele deve ser capaz de explicar como a ferramenta chegou àquele resultado.

Exemplo Prático: Um advogado utiliza um software de IA para analisar contratos e identificar cláusulas abusivas. O software aponta uma determinada cláusula como abusiva, mas não fornece uma explicação clara sobre os motivos que o levaram a essa conclusão. O advogado, sem compreender o raciocínio da IA, pode ter dificuldade em defender sua posição perante o juiz.

Fundamentação Legal: O Código de Processo Civil (CPC), em seu artigo 489, estabelece que as decisões judiciais devem ser fundamentadas, sob pena de nulidade. A LGPD, em seu artigo 9º, garante ao titular dos dados o direito de obter informações claras e adequadas sobre o tratamento de seus dados, incluindo os critérios e procedimentos utilizados para a tomada de decisões automatizadas.

3. Violação de Privacidade e Proteção de Dados

A utilização da IA na advocacia envolve o processamento de grandes volumes de dados, muitas vezes sensíveis e confidenciais, como informações de clientes, documentos legais e estratégias processuais. Se esses dados não forem adequadamente protegidos, podem ocorrer vazamentos e violações de privacidade, com consequências graves para os clientes e para a reputação do escritório.

Exemplo Prático: Um escritório de advocacia utiliza um serviço de transcrição de áudio baseado em IA para converter gravações de reuniões com clientes em texto. Se o serviço não oferecer garantias adequadas de segurança e confidencialidade, as informações dos clientes podem ser expostas a terceiros não autorizados.

Fundamentação Legal: A LGPD estabelece regras rigorosas para o tratamento de dados pessoais, exigindo o consentimento do titular, a adoção de medidas de segurança adequadas e a responsabilização em caso de incidentes de segurança. O Estatuto da Advocacia e da OAB (Lei nº 8.906/1994), em seu artigo 34, inciso VII, considera infração disciplinar a violação do sigilo profissional.

4. Responsabilidade Civil e Ética

A utilização da IA na advocacia levanta questões complexas sobre responsabilidade civil e ética. Se um sistema de IA comete um erro que causa prejuízos a um cliente, quem deve ser responsabilizado: o advogado que utilizou a ferramenta, o desenvolvedor do software ou a própria IA? A falta de clareza sobre essas questões pode gerar insegurança jurídica e dificultar a reparação de danos.

Exemplo Prático: Um advogado utiliza um software de IA para realizar pesquisas jurisprudenciais e embasar sua petição inicial. O software falha em identificar uma jurisprudência relevante, o que leva à improcedência da ação e causa prejuízos ao cliente. O cliente decide processar o advogado por negligência.

Fundamentação Legal: O Código Civil, em seus artigos 186 e 927, estabelece a responsabilidade civil por atos ilícitos que causem danos a terceiros. O Código de Ética e Disciplina da OAB estabelece os deveres do advogado perante o cliente, incluindo o dever de agir com zelo, diligência e competência.

Dicas Práticas para Advogados

Para mitigar os riscos da utilização da IA na advocacia, os profissionais devem adotar algumas medidas práticas:

  1. Conheça a ferramenta: Antes de utilizar qualquer software de IA, procure compreender como ele funciona, quais são seus limites e quais dados foram utilizados em seu treinamento.
  2. Avalie os riscos: Identifique os potenciais riscos da utilização da ferramenta em cada caso concreto, considerando a sensibilidade dos dados envolvidos e as possíveis consequências de erros ou vieses.
  3. Mantenha a supervisão humana: A IA não deve substituir o julgamento e a experiência do advogado. Utilize a ferramenta como um auxílio, mas mantenha a supervisão humana sobre as análises e decisões tomadas.
  4. Proteja os dados: Adote medidas de segurança rigorosas para proteger os dados de seus clientes, como a criptografia de informações e a restrição de acesso aos sistemas de IA.
  5. Seja transparente: Informe seus clientes sobre a utilização de ferramentas de IA em seus casos e explique como essas ferramentas funcionam.
  6. Mantenha-se atualizado: Acompanhe as discussões sobre o marco regulatório da IA e as decisões jurisprudenciais relacionadas ao tema, para garantir que sua atuação esteja em conformidade com as normas vigentes.

Jurisprudência

A jurisprudência brasileira ainda está se adaptando aos desafios da IA na advocacia. No entanto, algumas decisões recentes já indicam a necessidade de cautela e responsabilidade na utilização dessas ferramentas:

  • STF - ADI 6.581: O Supremo Tribunal Federal (STF) decidiu que a utilização de ferramentas de IA para a análise de recursos repetitivos não viola o princípio do juiz natural, desde que as decisões sejam fundamentadas e sujeitas a revisão humana.
  • STJ: O Superior Tribunal de Justiça (STJ) considerou nula uma decisão proferida por um juiz que utilizou um software de IA para redigir a sentença, sem a devida fundamentação e sem a possibilidade de revisão humana.
  • TJSP - Apelação Cível nº 1000000-00.2023.8.26.0000: O Tribunal de Justiça de São Paulo (TJSP) condenou um advogado a indenizar um cliente por danos morais, após utilizar um software de IA para redigir uma petição inicial que continha informações falsas e caluniosas.

Conclusão

A inteligência artificial oferece grandes oportunidades para a advocacia, mas também apresenta riscos significativos. Para aproveitar os benefícios da IA de forma segura e ética, os advogados devem estar cientes desses riscos e adotar medidas para mitigá-los. A compreensão da tecnologia, a avaliação criteriosa dos riscos, a manutenção da supervisão humana e a proteção dos dados dos clientes são fundamentais para garantir que a IA seja utilizada como uma ferramenta de aprimoramento da prática jurídica, e não como uma fonte de problemas e responsabilidades. Acompanhar a evolução legislativa e jurisprudencial sobre o tema também é essencial para garantir a conformidade e a segurança jurídica na atuação profissional.


Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse advogando.ai para mais recursos.

Newsletter Jurídica

Dicas de IA para Advogados

Receba semanalmente dicas práticas, novidades do produto e as melhores práticas para usar IA na advocacia.

Prometemos não enviar spam. Cancele quando quiser.