Carregando...
Inteligência Artificial

Aplicações e implicações do uso de IA na área da saúde

A Inteligência Artificial (IA) é uma tecnologia utilizada há décadas por pesquisadores e desenvolvedores, mas apenas recentemente ela se popularizou. Na medicina, a IA tem sido usada para ajudar médicos a diagnosticar doenças e/ou prever o início ou a gravidade delas.
06.04.2023 por DCOM
Foto colaborador

Introdução

A Inteligência Artificial (IA) é uma tecnologia utilizada há décadas por profissionais, mas, apenas recentemente ela se popularizou. IA é um termo abrangente usado por pesquisadores e desenvolvedores que trabalham com computadores e programas de software que exibem comportamentos tidos como “inteligentes”. A OCDE (Organização para a Cooperação e Desenvolvimento Econômico) considera como IA [1] os sistemas “baseados em máquina capazes de influenciar o ambiente produzindo uma saída”. Esses sistemas atingem um determinado conjunto de objetivos, como, por exemplo:

  •  perceber ambientes reais e/ou virtuais;
  • abstrair essas percepções em modelos por meio de análise de maneira automatizada (por exemplo, com aprendizado de máquina) ou manualmente; e
  • usar inferência de modelo para formular opções de resultados.

Isso inclui softwares de reconhecimento de fala ou carros autônomos. Dito de uma forma simples, qualquer coisa em que o “computador” pareça estar pensando por conta própria, em vez de simplesmente seguir instruções de humanos, pode ser considerada uma forma de IA.

Tendências em IA na saúde

A IA tem sido usada na medicina há vários anos, para ajudar médicos a diagnosticar doenças como câncer e doenças cardíacas, ou prever o início ou a gravidade de uma doença. Ela também está sendo usada em planos de tratamento para pacientes com doenças crônicas, como diabetes ou asma. O gráfico abaixo ilustra, em porcentagem, o estado atual da utilização de IA na área oncológica, dividido por tipo de câncer [2]:

Não foi fornecido texto alternativo para esta imagem

Na área farmacêutica, a IA pode ajudar a determinar quanta medicação um paciente precisa utilizar com base em seu histórico de uso, e ajuda médicos e enfermeiros a prescreverem medicamentos sem ter acesso a todas as informações do paciente de uma só vez.

A empresa NoHarm, especializada em farmacologia, possui um software que indica onde estão os potenciais erros de prescrições, aumentando a qualidade assistencial e a eficiência hospitalar. Conforme consta em seu site, já está sendo aplicada por diversos players de saúde do Brasil [3]. Já a empresa GSK tem utilizado modelos de IA para interpretar base de dados genéticos para entender a “linguagem” das células, desenvolvendo medicamentos com maior probabilidade de sucesso [4].

Cuidados necessários

Com o “hype” da tecnologia, aumentam também os receios com relação ao banco de dados utilizados para alimentar os modelos, bem como a possibilidade de se tomar decisões de forma automática, com riscos à vida dos pacientes. Muitas vezes, os modelos criados pelas IA’s não são capazes de prever o comportamento e a saúde dos pacientes individualmente de forma assertiva, gerando distorções perigosas.

Um estudo conduzido por pesquisadores da Universidade de Yale [5] indicou que muitos dos erros cometidos pelas IA’s não estavam ligados somente a problemas na programação do código em si, mas sim a fatores biológicos e sociodemográficos, como idade e educação. Isso revelou o potencial de “discriminação” algorítmica, que teria que ser corrigido por desenvolvedores.

Essa descoberta revela aspectos éticos que devem ser observados na aplicação de IA’s na saúde, pois todo código é passível de gerar discriminação se não for corretamente treinado. A “culpa”, contudo, não pode ser da máquina: ela apenas reproduz um padrão que foi inserido por um humano. Por isso, é essencial um planejamento ético no momento da condução das pesquisas, razão pela qual as principais empresas de desenvolvimento de IA’s no mundo possuem departamentos de Ética em IA [6].

Outro ponto de atenção está ligado à proteção dos dados pessoais utilizados para alimentar os modelos. Essas informações devem ser tratadas de acordo com a Lei Geral de Proteção de Dados (LGPD), possuindo uma base legal adequada, além de sofrerem uma avaliação crítica de impacto à proteção de dados pelos agentes de tratamento envolvidos, quando envolver riscos às liberdades civis e aos direitos fundamentais. Se o sistema tomar decisões de forma automatizada, ou seja, sem interferência humana no momento decisório, deve ser garantido ao titular o direito à revisão dessa decisão. Muitas vezes, contudo, essa revisão pode ser tecnicamente impossível, considerando que alguns modelos de aprendizado profundo (deep learning) são tão complexos que nem os desenvolvedores são capazes de explicar como a decisão foi tomada, o que é chamado de “black box” [7].

Obrigações à vista

Existem projetos de Lei cujo objetivo é regulamentar essas questões. Os mais importantes são os Projetos de Lei nº 5.051/2019, 21/2020 e 872/2021. As minutas desses Projetos foram analisadas por uma Comissão de Juristas, responsável por subsidiar a elaboração de substitutivo sobre IA no Brasil [8]. Dentre as diversas medidas propostas, estão a criação de uma autoridade competente por zelar pela aplicação da Lei (à maneira como a ANPD está para a Lei Geral de Proteção de Dados – LGPD), e a previsão de um sistema de reparação objetivo no caso de sistemas de inteligência artificial de alto risco.

A aprovação das leis propostas poderá criar uma série de obrigações para agentes de IA da área da saúde (fornecedores e operadores de IA), que deverão, dentre outras obrigações, realizar avaliações de impacto algorítmico. Isso porque, segundo os Projetos, serão consideradas de alto risco os sistemas de IA aplicáveis à área da saúde, inclusive as destinadas a auxiliar diagnósticos e procedimentos médicos (art. 17, IX das minutas conjuntas).

Conclusão

A utilização de modelos de IA tem potencial para revolucionar todos os campos da sociedade, dentre os quais se insere a medicina. Há inúmeros casos de aplicação prática com benefícios reais para os pacientes, seja no diagnóstico de doenças, seja no tratamento. Os benefícios, contudo, não vêm sem riscos: é necessário a adoção de uma série de cuidados no tratamento dos dados pessoais que serão utilizados para treinar ou testar os sistemas, bem como questões éticas devem ser levadas em consideração no momento de desenvolver os sistemas.

Com a aprovação das normas citadas, os agentes de inteligência artificial também terão que implementar um Programa de Governança em IA, que permita o exercício dos direitos das pessoas impactadas. Estar à frente na hora de desenvolver um sistema pode significar uma vantagem competitiva, considerando as preocupações com privacidade (privacy by design) e com a segurança das pessoas afetadas desde a prototipagem inicial dos modelos.

 

 

[1] OECD – Organization for Economic Co-Operation and Development. OECD. AI Principles overview. Disponível em https://oecd.ai/en/ai-principles. Acessado em 04/03/2023

[2] Luchini, C., Pea, A. & Scarpa, A. Artificial intelligence in oncology: current applications and future perspectives. Br J Cancer 126, 4–9 (2022). Disponível em https://doi.org/10.1038/s41416-021-01633-1. Acessado em 03/04/2023

[3] Informação extraída do próprio site da NoHarm. Disponível em <https://noharm.ai/>. Acessado em 03/04/2023

[4] Disponível em < https://www.gsk.ai/>. Acessado em 03/04/2023

[5] Greene, A.S., Shen, X., Noble, S. et al. Brain–phenotype models fail for individuals who defy sample stereotypes. Nature 609, 109–118 (2022). https://doi.org/10.1038/s41586-022-05118-w. Disponível em < https://www.nature.com/articles/s41586-022-05118-w#citeas>. Acessado em 04/04/2023

[6] Departamentos esses que, por muitas vezes, são infelizmente demitidos quando há divergência de interesses, como a equipe da Microsoft que foi demitida em março de 2023. https://olhardigital.com.br/2023/03/15/pro/microsoft-demite-toda-equipe-de-etica-da-ia/

[7] Parentoni, L. What should we reasonably expect from artificial intelligence? In: Il Diritto Degli Affari. European Press Academic Publishing. Lamporecchio: 2022, p. 23.

[8] Relatório Comissão de Juristas Responsável por Subsidiar a Elaboração de Substitutivo Sobre IA no Brasil. Brasília, 2022.