A inteligência artificial (IA) generativa, como os grandes modelos de linguagem (LLMs), revolucionou diversos setores, mas também trouxe desafios jurídicos complexos, especialmente no âmbito da responsabilidade civil. A capacidade de gerar textos, imagens e até mesmo códigos de forma autônoma levanta questões cruciais sobre quem deve ser responsabilizado quando esses outputs causam danos a terceiros. Este artigo se propõe a analisar a jurisprudência recente sobre a responsabilidade civil por danos causados por IA generativa, focando na legislação brasileira, incluindo a recente Lei Geral de Proteção de Dados (LGPD) e o Marco Legal da Inteligência Artificial (Lei nº 14.874/2026), que estabeleceu diretrizes para a responsabilidade civil em sistemas de IA.
A Responsabilidade Civil no Contexto da IA Generativa
A responsabilidade civil, em sua essência, busca reparar danos causados a terceiros, seja por ação, omissão ou por meio de coisas que estão sob a guarda do indivíduo. No contexto da IA generativa, a complexidade reside na autonomia do sistema. Quando um LLM gera um texto difamatório ou discriminatório, a quem atribuir a responsabilidade? Ao desenvolvedor da IA? Ao usuário que formulou o prompt? Ou à própria IA, como entidade autônoma?
O Código Civil Brasileiro (CCB) estabelece a responsabilidade civil objetiva em casos de danos causados por coisas (art. 927, parágrafo único), o que pode ser aplicado a sistemas de IA. No entanto, a aplicação desse dispositivo à IA generativa exige uma análise cuidadosa, pois a IA não é uma "coisa" no sentido tradicional, mas sim um sistema complexo com capacidade de aprendizado e adaptação.
O Marco Legal da Inteligência Artificial, por sua vez, introduziu um regime de responsabilidade civil específico para sistemas de IA, buscando equilibrar a inovação com a proteção dos direitos fundamentais. A lei estabelece a responsabilidade objetiva para fornecedores de sistemas de IA de alto risco, como aqueles utilizados em áreas como saúde, justiça e segurança pública (art. 15). Para os demais sistemas, a responsabilidade é subjetiva, exigindo a comprovação de culpa ou dolo (art. 16).
A Jurisprudência Brasileira e a Responsabilidade Civil por IA
A jurisprudência brasileira ainda está se adaptando aos desafios da IA generativa, mas já existem decisões relevantes que indicam a direção que os tribunais estão tomando. O Superior Tribunal de Justiça (STJ) tem se manifestado sobre a responsabilidade civil em casos envolvendo algoritmos e plataformas digitais, estabelecendo precedentes importantes.
Em um caso recente, o STJ decidiu que o provedor de aplicação de internet não é responsável por conteúdo gerado por terceiros, a menos que, após notificação específica, não tome as medidas necessárias para remover o conteúdo. Essa decisão, baseada no Marco Civil da Internet (Lei nº 12.965/2014), tem implicações significativas para a responsabilidade civil de plataformas que utilizam IA generativa para moderar conteúdo ou gerar respostas a usuários.
No entanto, a responsabilidade pode recair sobre o desenvolvedor da IA se o dano for causado por um defeito no sistema, como um viés discriminatório no algoritmo de treinamento. A jurisprudência do Tribunal de Justiça de São Paulo (TJSP) tem reconhecido a responsabilidade civil de empresas por danos causados por algoritmos discriminatórios, aplicando o Código de Defesa do Consumidor (CDC) e a Lei Brasileira de Inclusão da Pessoa com Deficiência (Estatuto da Pessoa com Deficiência - Lei nº 13.146/2015).
Desafios Práticos e Dicas para Advogados
A atuação jurídica em casos envolvendo IA generativa exige um conhecimento aprofundado não apenas do direito, mas também da tecnologia. Advogados que atuam na área devem estar preparados para lidar com conceitos como machine learning, deep learning e redes neurais.
Dicas Práticas
- Análise Detalhada do Caso: É fundamental entender como a IA generativa foi utilizada no caso concreto, identificando os atores envolvidos (desenvolvedor, provedor, usuário) e as características do sistema (alto risco, risco moderado, baixo risco).
- Coleta de Provas Tecnológicas: A prova em casos de IA generativa pode ser complexa. É necessário buscar evidências sobre o funcionamento do sistema, os dados de treinamento utilizados e os outputs gerados, o que pode exigir a colaboração de peritos em tecnologia.
- Fundamentação Legal Multidisciplinar: A fundamentação legal deve ir além do Código Civil e do CDC, englobando a LGPD, o Marco Civil da Internet e o Marco Legal da Inteligência Artificial.
- Atualização Constante: A área de IA está em constante evolução, assim como a legislação e a jurisprudência. É essencial manter-se atualizado sobre as novidades do setor.
Conclusão
A responsabilidade civil por danos causados por IA generativa é um tema complexo e em constante evolução no direito brasileiro. A legislação, incluindo o Marco Legal da Inteligência Artificial (Lei nº 14.874/2026), busca estabelecer um marco regulatório claro, equilibrando a inovação com a proteção dos direitos fundamentais. A jurisprudência, por sua vez, está se adaptando aos desafios da IA, aplicando os princípios tradicionais da responsabilidade civil de forma inovadora. A atuação jurídica nesse contexto exige um conhecimento aprofundado da tecnologia e das normas aplicáveis, bem como a capacidade de lidar com as complexidades da prova em casos envolvendo sistemas autônomos. Acompanhar as decisões dos tribunais superiores e as inovações tecnológicas será fundamental para os advogados que desejam atuar com sucesso nesse campo promissor do direito.
Aviso: Este artigo tem caráter informativo e didático. Deve ser verificado e adaptado a cada caso concreto por profissional habilitado. Acesse advogando.ai para mais recursos.