
Muitos hospitais dos EUA dependem de ferramentas médicas de IA que ajudam nos diagnósticos e outras tarefas.Crédito: Hilary Swift para o Washington Post via Getty
Inteligência artificial (Ai) já Ajuda os médicos para fazer diagnósticosTriagem casos críticos e transcreva notas clínicas em hospitais nos Estados Unidos. Mas a regulação dos produtos médicos de IA não continuou Com o ritmo rápido de sua adoção, argumente os pesquisadores em um relatório publicado em 5 de junho em PLOS Health Digital1.
Os autores apontam para as limitações de como a Food and Drug Administration (FDA) dos EUA aprova esses dispositivos e propõe estratégias mais amplas que se estendem além da agência para ajudar a garantir que as ferramentas médicas de IA sejam seguras e eficazes.
Mais de 1.000 produtos médicos de IA foram liberados pelo FDA, e os hospitais os adotam rapidamente. Ao contrário da maioria dos outros produtos regulados pela FDA, as ferramentas de IA continuam evoluindo após a aprovação à medida que são atualizadas ou treinado em novos dados. Isso aumenta a necessidade de supervisão contínua, que os regulamentos atuais têm capacidade limitada para garantir.
Google ai melhor do que médicos humanos no diagnóstico de erupções cutâneas de fotos
A discussão é especialmente oportuna em meio a sinais recentes de que o governo federal pode reduzir o regulamento da IA. Em janeiro, o presidente Donald Trump revogou uma ordem executiva focada na segurança da IA, citando a necessidade de remover barreiras para a inovação. No mês seguinte, as demissões afetaram a equipe da divisão da FDA responsável pela IA e pela saúde digital.
Sem a supervisão adequada, existe o risco de que os algoritmos médicos possam dar recomendações enganosas e comprometer o atendimento ao paciente. “Tem que haver salvaguardas”, diz Leo Anthony Celi, pesquisador clínico do Instituto de Tecnologia de Massachusetts em Cambridge e co-autor do relatório. “E acho que confiar no FDA para criar todas essas salvaguardas não é realista e talvez até impossível.”
Barra baixa para aprovação
Os critérios utilizados pelo FDA para revisar e autorizar as ferramentas médicas de IA geralmente são menos rigorosas do que as de drogas. E como outros países confiam no FDA para informar suas próprias decisões, sua abordagem pode ter implicações globais. De acordo com o FDA, apenas as ferramentas que podem representar um risco maior para os pacientes devem passar por um ensaio clínico, por exemplo. Outra preocupação é que Algoritmos médicos geralmente funcionam mal quando aplicado a populações que diferem daqueles em que foram treinados. Devido a essas limitações, a aprovação regulatória não garante que um produto médico de IA seja benéfico para as pessoas que se destina a ajudar, diz Celi.
O Google AI tem uma maneira melhor de cabeceira do que médicos humanos – e faz melhores diagnósticos
Idealmente, os hospitais devem avaliar o desempenho dos algoritmos em suas próprias populações de pacientes e treinar médicos para interpretar os resultados e responder adequadamente antes de adotar essas tecnologias. “Um dos maiores desafios é que a grande maioria dos hospitais e clínicas não tem os recursos para contratar equipes de IA” para realizar esses testes, diz Celi, acrescentando que um estudo publicado este ano2 descobriram que muitos hospitais estão comprando ferramentas de IA ‘fora da prateleira’ e usando -as sem validação local. “Isso é uma receita para o desastre”, diz ele.