Artigos - Postado em: 08/07/2024

Proteção de Dados no Setor da Saúde na Era da Inteligência Artificial

Por João Pedro Mamede Miranda

A Inteligência Artificial (IA) tem revolucionado diversos setores da economia, e o da saúde não é uma exceção. Desde a realização de cirurgias assistidas por robôs até o atendimento online por meio de chatbots, a IA tem se mostrado uma ferramenta valiosa para aprimorar a eficiência e a qualidade dos serviços de saúde.

A IA pode, por exemplo, melhorar o diagnóstico e o tratamento de diversas doenças. Ela também pode ser utilizada para prever o período de cicatrização de feridas e os melhores tratamentos para cada ferimento, personalizar tratamentos com base no perfil genético do paciente e até mesmo monitorar a adesão ao tratamento em tempo real.

Para a indústria farmacêutica, a IA permite a análise de grandes conjuntos de dados referentes à saúde em um curto lapso temporal, o que pode ser muito relevante para a pesquisa e desenvolvimento de novos medicamentos.

Essas aplicações são promissoras, mas a adoção dessa tecnologia levanta questões significativas sobre a proteção de dados pessoais, um tema que tem ganhado cada vez mais relevância no cenário jurídico brasileiro. De fato, a sensibilidade dos dados pessoais tratados pelo setor da saúde requer atenção redobrada nos projetos envolvendo o uso de Inteligência Artificial.

A Lei Geral de Proteção de Dados Pessoais (Lei 13.709/2018 – “LGPD”), sancionada em 2018, estabelece diretrizes claras para o uso de dados pessoais no Brasil, incluindo aqueles utilizados por sistemas de IA ou “decisões automatizadas”.  Os titulares dos dados têm o direito de solicitar a revisão de decisões que afetem seus interesses e que tenham sido tomadas unicamente com base em tratamentos automatizados como, por exemplo, desde a análise de risco para seguros de saúde até a determinação de tratamentos baseados em algoritmos.

As empresas devem ser capazes de explicar a lógica por trás das decisões automatizadas e garantir que haja supervisão humana quando necessário. Isso ajuda a evitar discriminações e erros que podem surgir de algoritmos treinados em conjuntos de dados enviesados.

E ainda, como a LGPD restringe as hipóteses de tratamento de dados pessoais sensíveis, não permitindo, por exemplo, o uso do legítimo interesse, os tratamentos dessa categoria de dados por meio de IA devem ser enquadrado em uma das hipóteses autorizativas do art. 11 da LGPD.

 

Esse não é, no entanto, o único impacto da LGPD em relação à IA. Ela exige ainda a observância do dever de informação dos titulares dos dados com relação às finalidades informadas e a forma do tratamento. Com efeito, a transparência é um dos princípios fundamentais da LGPD. As organizações devem ser claras e específicas sobre como os dados pessoais serão utilizados. No contexto da IA na saúde, isso significa que pacientes e usuários devem ser informados sobre a forma como seus dados são coletados, armazenados e analisados. O consentimento, quando necessário, deve ser obtido de forma explícita e informada, garantindo que os indivíduos compreendam plenamente as implicações do uso de seus dados.

A redação de Política de Privacidade robusta e a disponibilização de um aviso de privacidade sempre que um usuário entra em contato com uma aplicação envolvendo Inteligência Artificial são boas práticas para o atendimento desse princípio.

Vale lembrar que os titulares dos dados pessoais têm o direito de acessar, corrigir e solicitar a exclusão de seus dados pessoais utilizados com consentimento. Eles também podem solicitar informações sobre as entidades com as quais seus dados foram compartilhados. Esse nível de controle é essencial para construir a confiança dos pacientes nas tecnologias de IA utilizadas no setor de saúde.

A capacitação contínua dos funcionários sobre as melhores práticas de segurança da informação e proteção de dados é uma parte importante do sucesso de um projeto dessa natureza. A conscientização e treinamento adequados ajudam a prevenir incidentes de segurança e garantem que todos os membros da organização compreendam suas responsabilidades em relação à LGPD.

Os dados pessoais objeto do tratamento devem ser protegidos contra acessos não autorizados e usos indevidos. Medidas de segurança como a criptografia e o controle de acesso rigoroso são extremamente importantes, mas não são suficientes.

O uso de inteligência artificial pressupõe uma análise prévia criteriosa. A área responsável pelo projeto deve imperativamente submetê-lo à apreciação do Departamento de Privacidade para analisar diversas questões como os tipos de dados pessoais utilizados, a sua origem, o fluxograma dos dados, a localização do(s) servidor(es) utilizado(s), a ocorrência de transferência internacional de dados, os compartilhamentos, entre outras.

Uma boa prática consiste na elaboração de um Relatório de Impacto a Proteção de Dados (RIPD) para avaliar possíveis riscos relacionados à privacidade e medidas mitigatórias a serem implementadas em um projeto envolvendo IA.

A implementação de qualquer projeto de Inteligência Artificial sem a validação prévia da sua legalidade por uma equipe competente pode representar um desperdício considerável de recursos humanos e financeiros para qualquer organização. De fato, projetos que só cheguem à etapa de análise e validação jurídica após meses ou anos de trabalho de desenvolvedores, centenas de hora/homem gastas e caros softwares adquiridos podem simplesmente serem abortados – mesmo após a sua conclusão – por ilegalidade manifesta.

A adoção de práticas corretas não só garante legalidade do projeto mas também ajuda a construir um relação de confiança com a sociedade ansiosa por uma inovação ética e sustentável na área da saúde.


O CHENUT alcançou por oito vezes o 1° lugar como o escritório mais admirado de Minas Gerais pela publicação Análise Editorial ADVOCACIA. Quer conhecer mais sobre a nossa Equipe e nossos serviços? Entre em contato com novosnegocios@chenut.online e agende uma conversa

Voltar