Atualidades

Do jeito que está, projeto de lei da Inteligência Artificial ameaça futuro da inovação em Saúde no Brasil

Publicado

on

A área da saúde não é um monólito. Altamente dinâmica, ela representa a intersecção de vários serviços e indústrias, empregando profissionais com expertises diversas. Engloba também atividades com diferentes níveis de risco, das mais sensíveis, como a exercida por um médico cirurgião, até as corriqueiras, como a pesquisa universitária ou a burocracia interna de uma unidade hospitalar.

Esses diferentes níveis de risco, óbvios ao senso comum, além de já reconhecidos e regulamentados por órgãos como a Anvisa (Agência Nacional de Vigilância Sanitária), infelizmente estão sendo ignorados pelo Projeto de Lei 2338/2023, que disciplina o uso de inteligência artificial (IA)  no país. O texto, que hoje tramita no Senado, trata quaisquer atividades ligadas à saúde como de “alto risco”, o que pode simplesmente inviabilizar parte da pesquisa com IA em território nacional.

Comecemos por reconhecer o óbvio: não há respostas prontas ou soluções fáceis para o problema da regulação de IA. A disseminação dessa tecnologia é, provavelmente, o fenômeno mais disruptivo nos últimos anos.

Seu potencial para transformar por completo nosso cotidiano gera um tremendo desafio do ponto de vista regulatório: como preservar direitos fundamentais da população sem, no entanto, interditar o avanço tecnológico?

No caso da saúde, esse desafio ganha contornos ainda mais dramáticos, pois estamos lidando diretamente com a segurança, a privacidade e, no limite, com a vida das pessoas. Sendo assim, qual é o ponto de equilíbrio entre interesse público e necessidade de inovação?

A questão não é puramente teórica. Há inúmeras ferramentas de IA voltadas à saúde que já são usadas ou estão em fase de implementação. Somente no primeiro semestre de 2023 a FDA (Food and Drug Administration), o órgão regulatório da saúde nos Estados Unidos, liberou quase 700 dispositivos médicos que utilizam algum tipo de IA ou machine learning. Até 2030, a saúde digital como um todo irá movimentar algo na casa dos US$ 850 bilhões.

No seu nível mais “básico”, por assim dizer, IAs são capazes de reunir, organizar e analisar volumes gigantescos de dados, extraindo conclusões ou identificando padrões invisíveis ao olhar humano. São também ferramentas capazes de aprender (daí a expressão machine learning) a partir de uma base de dados, o que as torna cada vez mais competentes para lidar com aquele tipo de informação.

Por isso essa tecnologia é eficaz, por exemplo, na análise do histórico de pacientes ou na leitura de exames de imagem (que se baseia em grande medida na identificação de padrões e, consequentemente, do que foge a esses padrões), sobretudo na oncologia ou em diagnósticos que demandam perfis genéticos. As ferramentas de IA conseguem apontar para (possíveis) sinais precoces, quase invisíveis, de várias enfermidades.

A gestão das instituições de saúde também ganha eficiência com a aplicação de IA, que permite automatizar tarefas como a organização das escalas dos profissionais, filas de atendimento, catalogação de documentos e muito mais.

IA generativa

Atualmente, o campo mais inovador em matéria de IA é o da chamada IA generativa, isto é, aquela capaz não apenas de ler informações, mas de gerar informações novas. A face mais popular dessa tecnologia é o ChatGPT ou aqueles divertidos sites que geram imagens a partir de uma descrição por escrito, mas há aplicações muito promissoras também na saúde.

Um programa de IA generativa é capaz de redigir o laudo de um exame, de gerar imagens e simulações a serem usadas na formação de novos médicos, de acelerar o desenvolvimento de novos medicamentos. Assim como um programador pode hoje pedir ao ChatGPT para escrever algumas linhas de código, pesquisadores da indústria farmacêutica podem pedir à máquina que projete a fórmula de novas moléculas e substâncias para este ou aquele fim, o que reduzirá o tempo e o custo de produção de uma nova droga.

Diante de tudo isso, fica evidente que regulamentar a IA, sobretudo em áreas sensíveis como a saúde, sempre será um pouco como trocar o pneu de um carro em movimento: o ritmo das inovações é vertiginoso, e fatalmente uma lei recém-criada estará obsoleta em alguma medida, já que ninguém conhece ainda o potencial pleno da inteligência artificial. Mesmo assim, é preciso encarar o desafio, e há experiências internacionais nas quais o Brasil pode e deve mirar.

A principal inspiração do PL 2338/2023 é a legislação da União Europeia, criada em 2021. Essa lei, embora seja a primeira do mundo sobre o tema, já estabelece gradações de risco para o uso de IA na saúde. Órgãos internacionais como a OMS (Organização Mundial da Saúde) e a OPAS (Organização Pan-Americana da Saúde) também oferecem parâmetros de classificação de risco.

O Brasil, no entanto, escolhe um caminho diferente (e arriscado) ao tratar qualquer uso da IA na saúde como de “alto risco”. Tive a honra de participar de uma audiência pública na Comissão Temporária sobre Inteligência Artificial (CTIA) acerca do impacto do PL 2338/2023, onde pude expressar, junto a outros colegas da área, algumas preocupações referentes à redação genérica do texto. A partir dos trabalhos dessa comissão, o senador Marcos Pontes chegou a apresentar um substitutivo ao atual PL, com a previsão de gradações de risco, o que, espera-se, servirá de base para uma versão mais coerente dessa legislação.

Ninguém nega que o país precisa, sim, regulamentar essas novas tecnologias, mas isso não pode sufocar nossa capacidade de inovação científica. É importante insistir no fato de que desatar esse nó não requer uma quimera legislativa, mas simplesmente que os parlamentares inscrevam na nova lei gradações de risco utilizadas com sucesso há décadas pelos órgãos regulatórios.

É o que faz a Anvisa, por exemplo, ao liberar novas drogas ou tecnologias. Órgãos como a SEIDIGI (Secretaria de Informação e Saúde Digital) ou a ANS (Agência Nacional de Saúde Suplementar) também possuem capacidade técnica para classificar o risco de cada nova aplicação de IA. Seus critérios podem servir de modelo para uma legislação federal.

Resolver esse imbróglio é crucial porque o Brasil já começou a desenvolver iniciativas próprias de uso da IA na saúde. Um exemplo que conheço de perto vem do InovaHC, núcleo de inovação tecnológica do Hospital das Clínicas da Faculdade de Medicina da Universidade de São Paulo (HC/FMUSP), cujo conselho eu atualmente presido.

Avanços em pesquisa com IA

O InovaHC acabou de firmar uma parceria com a Amazon Web Services, plataforma de computação em nuvem da Amazon, para criar um laboratório de IA generativa. De caráter interdisciplinar, atraindo estudantes, docentes, pesquisadores e empreendedores, esse laboratório nasce com a missão de desenvolver ferramentas inovadoras com potencial de melhorar os serviços prestados pelo Sistema Único de Saúde (SUS).

Seu primeiro projeto já está em fase de desenvolvimento. Batizado de GAL (Gerador Adaptativo de Laudos), ele permitirá estruturar de maneira automática laudos radiológicos, levando em conta o histórico de cada paciente. Com supervisão e apoio do Instituto de Radiologia do Hospital das Clínicas, o GAL será capaz de fazer um sumário das informações pertinentes a cada exame, facilitando a estruturação de laudos pela equipe de radiologia. Espera-se com isso reduzir o tempo gasto pelo radiologista acessando os dados necessários para a análise das imagens de cada paciente, acelerando, portanto, a entrega do diagnóstico.

Esse é exatamente o tipo de pesquisa que pode ser seriamente comprometida, ou mesmo interrompida, por uma regulação genérica da IA. A classificação de “alto risco” para todas as atividades do setor impõe restrições incompatíveis com a realidade da pesquisa universitária ou da burocracia de uma instituição médica.

Trata-se, novamente, de um apelo ao bom senso, não à imprudência: a saúde é uma área complexa, composta por inúmeros setores. Assim como é preciso absoluto cuidado com as inovações que lidam diretamente com a integridade física dos pacientes, não faz sentido exigir o mesmo escrutínio para tecnologias voltadas a tarefas secundárias, auxiliares, e que podem trazer ganhos enormes de qualidade, eficiência e assertividade.

Em matéria de tecnologia, boa regulamentação é aquela que protege tanto o bem-estar coletivo quanto o potencial de inovação de uma sociedade.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais Vistos

Sair da versão mobile