A inteligência artificial (IA) deixou de ser ficção científica e se tornou uma realidade onipresente em nossas vidas. Desde algoritmos de recomendação em plataformas de streaming até sistemas de diagnóstico médico e carros autônomos, a IA permeia diversos setores da sociedade, trazendo benefícios inegáveis, mas também desafios jurídicos complexos, especialmente no que tange à responsabilidade civil.
Como atribuir responsabilidade quando um sistema autônomo causa dano a terceiros? Quem responde por um acidente envolvendo um veículo conduzido por IA? E se um algoritmo de análise de crédito discriminar indevidamente um consumidor? A ausência de um marco regulatório específico no Brasil até o momento, aliada à velocidade exponencial do desenvolvimento tecnológico, torna a análise dessa temática um verdadeiro desafio para os operadores do direito.
Neste artigo, exploraremos os contornos da responsabilidade civil por danos causados por inteligência artificial, analisando as teorias aplicáveis, a legislação vigente e as perspectivas para o futuro, com foco em dicas práticas para advogados que atuam na área de Direito Digital.
O Desafio da Autonomia e a Atribuição de Responsabilidade
A principal dificuldade em lidar com a responsabilidade civil por IA reside na autonomia dos sistemas. Diferentemente de softwares tradicionais, que executam comandos pré-programados de forma determinística, sistemas de IA, especialmente aqueles baseados em aprendizado de máquina (machine learning) e aprendizado profundo (deep learning), são capazes de aprender com dados, adaptar seu comportamento e tomar decisões de forma independente, sem intervenção humana direta.
Essa autonomia cria um hiato entre o desenvolvedor, o fabricante, o operador e a própria máquina, tornando complexa a identificação do agente causador do dano e a atribuição de culpa. A doutrina jurídica tradicional, baseada na culpa (responsabilidade subjetiva) ou no risco da atividade (responsabilidade objetiva), muitas vezes se mostra insuficiente para lidar com as peculiaridades da IA.
Teorias da Responsabilidade Civil Aplicáveis à IA
Apesar da falta de legislação específica, a doutrina e a jurisprudência têm buscado adaptar as teorias existentes para lidar com os danos causados por IA. Destacam-se as seguintes abordagens.
Responsabilidade Objetiva pelo Risco do Empreendimento
Essa é a teoria mais comumente aplicada aos casos envolvendo IA, especialmente quando a atividade desenvolvida pelo sistema se enquadra no conceito de relação de consumo. O Código de Defesa do Consumidor (CDC), em seu artigo 14, estabelece a responsabilidade objetiva do fornecedor de serviços pelos danos causados aos consumidores por defeitos relativos à prestação dos serviços.
Nesse contexto, se um sistema de IA utilizado por uma empresa causar dano a um consumidor (ex: discriminação em análise de crédito, erro em diagnóstico médico, acidente com veículo autônomo), a empresa fornecedora do serviço poderá ser responsabilizada objetivamente, independentemente de culpa, bastando a comprovação do dano e do nexo de causalidade.
Responsabilidade Subjetiva com Presunção de Culpa
Em situações que não envolvem relação de consumo, a responsabilidade civil pode ser analisada sob a ótica do Código Civil (CC). O artigo 927 do CC consagra a regra geral da responsabilidade civil extracontratual, baseada na culpa. No entanto, o parágrafo único do mesmo artigo introduz a teoria do risco, admitindo a responsabilidade objetiva quando a atividade normalmente desenvolvida pelo autor do dano implicar, por sua natureza, risco para os direitos de outrem.
A aplicação da teoria do risco à IA é objeto de debate. Alguns defendem que a própria natureza da IA, com sua autonomia e imprevisibilidade, gera um risco inerente que justifica a responsabilidade objetiva do desenvolvedor ou operador. Outros argumentam que a responsabilidade deve ser analisada caso a caso, considerando o grau de autonomia do sistema e o risco da atividade específica.
Em casos de responsabilidade subjetiva, a prova da culpa do desenvolvedor ou operador pode ser complexa. A jurisprudência, em alguns casos, tem admitido a inversão do ônus da prova, cabendo ao desenvolvedor ou operador demonstrar que não agiu com culpa (ex: que o sistema foi desenvolvido com os devidos cuidados e que o dano resultou de caso fortuito ou força maior).
Responsabilidade por Fato do Produto
O CDC, em seu artigo 12, estabelece a responsabilidade objetiva do fabricante, do produtor, do construtor e do importador por danos causados aos consumidores por defeitos decorrentes de projeto, fabricação, construção, montagem, fórmulas, manipulação, apresentação ou acondicionamento de seus produtos.
A aplicação dessa teoria à IA levanta a questão de se o software pode ser considerado um produto. A doutrina e a jurisprudência têm se inclinado a considerar que sim, especialmente quando o software é comercializado como um bem de consumo (ex: aplicativo de celular, software embarcado em um veículo). Nesses casos, o desenvolvedor ou fabricante do sistema de IA poderá ser responsabilizado objetivamente por defeitos de projeto ou fabricação que causem danos aos consumidores.
A Jurisprudência Brasileira e a IA
A jurisprudência brasileira sobre responsabilidade civil por IA ainda é incipiente, mas já apresenta alguns casos relevantes que demonstram a aplicação das teorias mencionadas acima.
No STJ, destaca-se o, no qual a Corte Superior reconheceu a responsabilidade civil de uma plataforma de intermediação de transporte por aplicativo por danos causados a um passageiro em decorrência de acidente de trânsito. O STJ aplicou o CDC, entendendo que a plataforma se enquadra no conceito de fornecedora de serviços e que o acidente constitui um defeito na prestação do serviço, ensejando a responsabilidade objetiva da empresa.
Em outro caso, o STJ analisou a responsabilidade de uma plataforma de comércio eletrônico por fraudes cometidas por terceiros utilizando o sistema da plataforma. A Corte Superior entendeu que a plataforma não pode ser responsabilizada objetivamente por atos ilícitos de terceiros, a menos que fique demonstrada sua falha na prestação do serviço (ex: ausência de mecanismos de segurança adequados).
No âmbito dos Tribunais de Justiça, a jurisprudência também tem se debruçado sobre a responsabilidade por algoritmos de recomendação e análise de crédito. Em alguns casos, os tribunais têm reconhecido a responsabilidade de empresas por danos morais causados por algoritmos que discriminam indevidamente os consumidores, aplicando o CDC e a Lei Geral de Proteção de Dados (LGPD).
O Marco Regulatório da IA no Brasil
O Brasil encontra-se em processo de elaboração de um marco regulatório para a IA. O Projeto de Lei n° 2338/2023, que institui o Marco Legal da Inteligência Artificial no Brasil, encontra-se em tramitação no Congresso Nacional.
O PL propõe diretrizes para o desenvolvimento e o uso da IA no país, com foco na proteção de direitos fundamentais, na transparência, na segurança e na responsabilização. O texto prevê a criação de um sistema de avaliação de risco para sistemas de IA, com regras mais rigorosas para sistemas de alto risco (ex: sistemas utilizados em saúde, segurança pública, justiça, emprego, crédito).
Em relação à responsabilidade civil, o PL estabelece a responsabilidade objetiva do fornecedor ou operador de sistemas de IA de alto risco pelos danos causados a terceiros, ressalvadas as hipóteses de culpa exclusiva da vítima ou de terceiro, caso fortuito ou força maior. Para os sistemas de risco baixo ou moderado, a responsabilidade será apurada com base na culpa, admitindo-se a inversão do ônus da prova a favor da vítima.
A expectativa é que a aprovação do Marco Legal da IA traga maior segurança jurídica para o desenvolvimento e a utilização dessa tecnologia no Brasil, estabelecendo regras claras para a atribuição de responsabilidade em caso de danos.
Dicas Práticas para Advogados
Para os advogados que atuam na área de Direito Digital, a temática da responsabilidade civil por IA exige atualização constante e uma abordagem multidisciplinar. Algumas dicas práticas:
- Conhecimento Técnico: É fundamental compreender os conceitos básicos de IA, como aprendizado de máquina, aprendizado profundo e algoritmos, para analisar adequadamente os casos e dialogar com peritos e especialistas.
- Análise de Risco: Avalie cuidadosamente o risco associado ao sistema de IA em questão, considerando o setor de atuação, a autonomia do sistema, a natureza dos dados processados e o potencial de dano a terceiros.
- Mapeamento de Atores: Identifique todos os atores envolvidos no ciclo de vida do sistema de IA (desenvolvedor, fabricante, operador, usuário) e analise a responsabilidade de cada um de acordo com as teorias aplicáveis.
- Provas e Perícias: Em casos envolvendo IA, a produção de provas pode ser complexa. A perícia técnica especializada em computação e inteligência artificial será fundamental para esclarecer o funcionamento do sistema, identificar a causa do dano e apurar a responsabilidade.
- Contratos e Termos de Uso: Revise e elabore contratos e termos de uso que delimitem a responsabilidade dos desenvolvedores, operadores e usuários de sistemas de IA, estabelecendo cláusulas de isenção de responsabilidade, limitação de danos e obrigações de segurança.
- Compliance e LGPD: Assegure que o desenvolvimento e a utilização de sistemas de IA estejam em conformidade com a LGPD e outras normas de proteção de dados e privacidade, mitigando os riscos de responsabilização por vazamento de dados ou uso indevido de informações pessoais.
- Acompanhamento Legislativo: Mantenha-se atualizado sobre a tramitação do Marco Legal da IA e outras iniciativas regulatórias no Brasil e no mundo.
Conclusão
A responsabilidade civil por danos causados por inteligência artificial é um tema complexo e em constante evolução. A ausência de um marco regulatório específico no Brasil exige criatividade e adaptação das teorias jurídicas tradicionais para lidar com os desafios da autonomia e da imprevisibilidade dos sistemas de IA. A aprovação do Marco Legal da IA representará um passo importante para a consolidação de um ambiente jurídico mais seguro e previsível para o desenvolvimento e a utilização dessa tecnologia transformadora. O papel do advogado será fundamental para orientar as empresas, proteger os direitos dos cidadãos e contribuir para a construção de uma jurisprudência sólida e equilibrada nessa área.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse advogando.ai para mais recursos.