Skip to main content

Danos causados pelo uso da IA: a quem cabe a responsabilidade?

Publicado em 26 Julho 2024

A inteligência artificial (IA), que na última década vem ganhando cada vez mais exposição em virtude da sua excepcional capacidade de gerar, analisar e interpretar informações de maneira demasiadamente rápida e eficiente, está transformando diversos setores e gerando novos desafios legais. 

À medida em que os sistemas de IA se tornam mais autônomos e desenvolvidos, mais complexas irão se tornar as discussões sobre a responsabilidade civil em face de uma conduta ilícita ou danosa decorrente da utilização da tecnologia.

No Brasil, há um Projeto de Lei em tramitação no Senado que trata da regulamentação e uso da inteligência artificial, o PL n. 2.338/2023. Contudo, inúmeras dúvidas surgem, especialmente quanto ao regime de aplicação de responsabilidade civil.

Algo que se tem como certo, até o momento, é a relevância do grau de risco do sistema de IA na definição do regime de responsabilidade civil. Isso porque todo e qualquer sistema trará consigo algum grau de risco em sua utilização. Existem desde sistemas simples e de baixo risco, como um robô aspirador, até sistemas complexos e de alto risco, como um robô que auxilia em diagnósticos e procedimentos médicos, envolvendo diretamente a integridade física das pessoas.

Alguns doutrinadores defendem que a solução parece estar no “reconhecimento da configuração de atividades de risco a partir do emprego generalizado de sistemas de inteligência artificial”¹. Contudo, refutam uma análise simplista de que todos os sistemas de IA deveriam se submeter ao regime objetivo indiscriminadamente, sem levar em conta as particularidades de cada caso.

Cabe citar análise publicada pela Cambridge University Press² sobre os impactos da utilização da IA em diversas áreas, com base em uma regra de “responsabilidade residual do fabricante”. A conclusão foi no sentido de que tanto os operadores — como médicos que usam robôs para fazer procedimentos, pilotos e companhias aéreas que usam robôs em operações automatizadas de voo — quanto as próprias pessoas afetadas pelo acidente têm responsabilidade quando este for decorrente de sua negligência. Já os fabricantes têm responsabilidade residual em acidentes não negligentes, o que os incentiva a investir mais em pesquisa e desenvolvimento para conferir segurança dos sistemas de IA que disponibilizam no mercado. 

No contexto brasileiro, em que a legislação ainda está em desenvolvimento, a aplicação dessa teoria pode fornecer diretrizes importantes. Cada incidente envolvendo IA pode apresentar particularidades que exigem uma análise detalhada das circunstâncias, considerando a conduta dos operadores, possíveis falhas tecnológicas e as medidas de segurança adotadas pelos fabricantes.

Um exemplo de caso de grande repercussão jurídica mundial, ocorrido nos Estados Unidos, é a colisão fatal de Walter Huang, que utilizava um carro com sistema Autopilot da Tesla.  O “National Transportation Safety Board” investigou o acidente em 2020 e concluiu que a tecnologia da Tesla foi pelo menos parcialmente responsável pelo acidente, por não ter emitido o alerta de acidente como deveria. Além disso, a investigação sugeriu possível distração do condutor acredita-se que o condutor poderia ter utilizado o seu telefone pouco antes do impacto além da verificação de problemas na construção da via que podem ter contribuído para o acidente. 

Em abril de 2024, pouco antes da seleção do júri, a família da vítima e a Tesla estabeleceram acordo sobre a respectiva indenização, com valor mantido em segredo. Apesar de não haver a efetiva condenação da empresa no processo, o caso é paradigma em futuras colisões de sistemas Autopilot e destaca a necessidade de uma regulamentação rigorosa e detalhada que venha a atribuir claramente as responsabilidades em casos de acidentes envolvendo tecnologias autônomas, além de enfatizar a necessidade de aprimoramento contínuo na segurança desses sistemas por parte dos fabricantes.

O PL ainda irá gerar muitos debates até atingir a aprovação de seu texto final, encontrando-se em tramitação atualmente na Casa Iniciadora (Senado). O regime jurídico a ser estabelecido para a responsabilidade civil é, com certeza, um dos temas mais relevantes em matéria de IA, portanto, deve ser devidamente refletido dentro do processo legislativo já iniciado, a fim de propiciar a devida segurança jurídica aos fornecedores de IA e aos respectivos utilizadores de tais ferramentas, que serão cada vez mais disponíveis e acessíveis no mercado.   


¹TEPEDINO, G.; SILVA, R. da G. Desafios da inteligência artificial em matéria de responsabilidade civil. Revista Brasileira de Direito Civil – RDBCivil, Belo Horizonte, v. 21, p. 61-86, jul./set. 2019, p. 84.

²GUERRA, A.; PARISI, F.; PI, D. Liability for robots II: an economic analysis. Journal of Institutional Economics, v. 18, n. 4, p. 553-568, 2022. Disponível em: https://www.cambridge.org/core/journals/journal-of-institutional-economics/article/liability-for-robots-ii-an-economic-analysis/6EC97BC138F9596C8B7D834F0C0CC137. Acesso em: 19 jun. 2024.

Área relacionada: