
Inteligência Artificial e a Responsabilidade Civil: Desafios para a Área Empresarial
Por Flávia Regina Alves Carmo
A integração da Inteligência Artificial (IA) em crescente incorporação no cotidiano, no ambiente empresarial, incluindo em empresas de variados setores, tem revolucionado processos e impulsionado a eficiência operacional, o que faz suscitar novas questões jurídicas, notadamente quanto à responsabilidade civil por eventuais falhas de sistemas automatizados.
Diante disso, toda transformação tecnológica traz consigo desafios significativos no campo da responsabilidade civil, especialmente quando sistemas autônomos causam danos a terceiros.
Os Sistemas de IA possuem a capacidade de tomar decisões independentes, aprendendo e adaptando-se a partir de dados e experiências anteriores. Contudo, a quem cabe a responsabilidade, quando uma decisão tomada por sistemas de IA causa danos?
Essa autonomia desafia os conceitos tradicionais de responsabilidade civil, que geralmente pressupõem a ação direta de um agente humano. Cabe destacar que a dúvida permeia tanto a esfera civil quanto a penal, levando a discussões sobre a necessidade de uma nova forma de regular essa abordagem.
No contexto empresarial, identificar o responsável por um dano causado por IA pode ser complexo: seria o desenvolvedor do software, o operador que utiliza os sistemas ou a empresa que se beneficia economicamente de sua aplicação?
Ainda, existe preocupações éticas e legais que não podem ser ignoradas, como o potencial discriminatório do algoritmo. Nesse viés, questões éticas envolvidas no uso de Inteligência Artificial tornam ainda mais complexas a atribuição de Responsabilidade Civil.
Isso porque, a Inteligência Artificial pode amplificar preconceitos e até perpetuar, dependendo dos dados utilizados para seu treinamento, podendo resultar em decisões discriminatórias também.
A responsabilidade nesse ponto deve ser considerada, pois envolve responsabilidade social e ética de todas as partes envolvidas, como os desenvolvedores e operadores, não sendo apenas uma questão de correção técnica dos sistemas IA.
Atualmente, existe urgência de uma legislação específica no Brasil, que aborde a regulação e a responsabilidade civil em casos envolvendo IA sendo uma necessidade premente. Isso porque, há insegurança jurídica tanto para os consumidores e empresas.
Ora, embora o Código Civil e o Código de Defesa do Consumidor ofereçam diretrizes gerais sobre responsabilidade, eles não contemplam as particularidades dos sistemas autônomos. A necessidade de um marco legal específico torna-se evidente para equilibrar a promoção da inovação tecnológica com a proteção dos direitos dos cidadãos.
Importante destacar que no dia 10 de dezembro de 2024, o Senado aprovou o projeto que regulamenta a inteligência artificial (IA) no Brasil e a matéria segue agora para a análise da Câmara dos Deputados.
Em suma, o texto propõe um marco regulatório com regras para o desenvolvimento e uso de sistemas de IA. Entre os dispositivos, prevê-se a proteção dos direitos dos criadores de conteúdo e obras artísticas, além de diretrizes sobre responsabilidade civil por danos causados por sistemas de IA.
A atribuição de responsabilidade em casos de danos causados por IA envolve diversos desafios como identificação do responsável, a prova do nexo causal, inversão do ônus da prova, dentre outros aspectos.
Para enfrentar esses desafios, algumas medidas podem ser consideradas como:
- Implementação de Governança de IA: Empresas devem adotar estruturas de governança que assegurem o uso ético e responsável da IA, incluindo políticas claras sobre desenvolvimento, implementação e monitoramento de sistemas autônomos.
- Transparência: Desenvolver sistemas de IA que ofereçam explicações claras sobre suas decisões pode facilitar a identificação de falhas e a atribuição de responsabilidade.
- Seguros Específicos para IA: A criação de produtos de seguro voltados para cobrir riscos associados ao uso de IA pode oferecer uma camada adicional de proteção tanto para empresas quanto para consumidores.
Nesse sentido, são essenciais a elaboração de políticas públicas que regulem a IA adequadamente e a promoção de boas práticas, a fim de garantir que as inovações tecnológicas sejam usadas de maneira responsável e benéfica.
Essa elaboração envolve diversas partes como, organizações científicas, empresas de tecnologia, grupos da sociedade civil com a finalidade de criar um ecossistema em que a ética, a segurança e a inovação coexistam.
É indiscutível que a busca por um sistema de responsabilidade à luz dos novos preceitos constitucionais é extremamente necessária para compreender que a responsabilização na esfera cível, deve ocorrer seja por um resultado de ato culposo ou seja decorrente de uma atividade lícita que porventura ocasionou um dano a alguém.
Ressalta-se também que há discussões sobre como o novo regulamento tratará as questões além da Responsabilidade Civil, mas como contratos, obrigações, proteção de dados e privacidade, bem como direitos e deveres.
A adoção de sistemas de inteligência artificial no setor empresarial brasileiro apresenta oportunidades significativas, mas também impõe desafios jurídicos complexos, especialmente no que tange à responsabilidade civil por danos causados por sistemas autônomos.
A ausência de uma regulamentação específica aumenta a insegurança jurídica, tornando urgente o desenvolvimento de um marco legal que equilibre a promoção da inovação com a proteção dos direitos dos cidadãos.
Enquanto isso, é sugerido para as empresas implementar medidas de governança e transparência para mitigar riscos e assegurar o uso ético e responsável da inteligência artificial em suas operações.
O CHENUT alcançou por nove vezes o 1° lugar como o escritório mais admirado de Minas Gerais pela publicação Análise Editorial ADVOCACIA. Quer conhecer mais sobre a nossa Equipe e nossos serviços? Entre em contato com novosnegocios@chenut.online e agende uma conversa.