O avanço da inteligência artificial (IA) na medicina tem sido acompanhado de promessas transformadoras e desafios estruturais, principalmente nos âmbitos regulatórios e éticos. Para desenvolver a Livia Med, enfrentamos na prática os dilemas que esse tipo de tecnologia impõe a quem atua na intersecção entre inovação, saúde e regulação.
Antes de qualquer coisa, devemos entender que a IA serve como uma extensão da inteligência médica. O papel dela na saúde é, e deverá ser por um bom tempo, o de uma ferramenta de apoio sofisticada e um potente catalisador da inteligência humana, mas não um substituto autônomo para o julgamento clínico e a relação médico-paciente.
A inteligência artificial é uma aliada poderosa para o profissional de saúde, pois pode processar e sintetizar grandes quantidades de informação médica em segundos. Ainda que seja possível imaginar, no futuro, soluções com maior grau de autonomia, essa transição deve ocorrer de forma cuidadosa, priorizando a segurança do paciente e respeitando os limites legais e éticos vigentes.
Não duvido que, em um futuro de médio a longo prazo, a IA possa alcançar níveis mais elevados de autonomia em tarefas bem definidas, de baixo risco e com alto grau de padronização, como o monitoramento contínuo de sinais vitais com alertas automatizados para condições específicas, ou mesmo a execução de tarefas rotineiras em laboratórios. No entanto, para decisões complexas que envolvem incerteza, múltiplos fatores, comorbidades, preferências do paciente e nuances da condição humana, a substituição do julgamento clínico humano é improvável e, no meu entender, indesejável.
Vejo a IA como uma extensão das capacidades do profissional de saúde. O futuro é da inteligência aumentada, onde a sinergia entre a expertise humana e o poder computacional da IA leva a melhores desfechos para os pacientes. A chave é a implementação ética, segura e centrada no ser humano, com o profissional sempre no comando da decisão final que impacta o paciente.
Desafios regulatórios: comprovar segurança e resultados
No campo regulatório, os principais entraves enfrentados por soluções de IA em saúde no Brasil envolvem a necessidade de avaliação rigorosa e documentação para comprovar segurança e resultados. A capacidade estatal para realizar essa avaliação em larga escala e a definição clara de responsabilidades em caso de falhas algorítmicas ainda são pontos em desenvolvimento.
Atualmente, o processo de internalização de boas práticas internacionais ainda está em curso, sendo que, nos Estados Unidos, a Food and Drug Administration (FDA) classifica os softwares como dispositivos médicos (SaMDs) com base no risco e impacto na decisão clínica, exigindo validação rigorosa, e na Europa, o AI Act, em conjunto com o Medical Device Regulation (MDR), impõe requisitos estritos para IAs de alto risco em saúde, focando em segurança, transparência e acuracidade. O desafio brasileiro é criar um sistema ágil que se harmonize com essas melhores práticas, garantindo segurança sem sufocar a inovação.
Além disso, um dos maiores desafios regulatórios globais é a “caixa-preta” da IA. Se não se pode explicar como uma IA chegou a uma determinada conclusão, torna-se complexo validar sua segurança, identificar vieses e, crucialmente, atribuir responsabilidade em caso de erro diagnóstico ou terapêutico que cause dano ao paciente. Os reguladores estão cada vez mais exigindo níveis de interpretabilidade e explanabilidade.
Desafios éticos: respeitar a autonomia médica e o paciente
A adoção de IA no contexto clínico também impõe o desafio de garantir que as decisões médicas continuem sendo tomadas por seres humanos. A IA deve servir como apoio técnico, não como substituto do julgamento clínico. Isso se traduz na separação entre ferramentas voltadas a médicos, nas quais a IA atua como suporte técnico à decisão, que é sempre finalizada pelo profissional, e funcionalidades pensadas para pacientes, com ferramentas que devem evitar o autodiagnóstico e a automedicação, respeitando o papel insubstituível do médico.
A confidencialidade é outro ponto inegociável. Dados de saúde são alvo de ciberataques constantes e garantir a sigilosidade, integridade e disponibilidade desses dados, em conformidade com a LGPD e outras regulações, é um desafio constante.
Desafios tecnológicos: construir confiança com base em evidências
Na base de toda IA em saúde está o dado — e é justamente aí que reside um dos principais desafios tecnológicos. A performance de qualquer IA é intrinsecamente ligada à qualidade, quantidade e representatividade dos dados de treinamento. Na área da saúde, os dados clínicos são, em geral, heterogêneos, incompletos, não padronizados e podem conter vieses históricos ou de sub-representação de certos grupos. Deve-se ter em mente que o excesso de dados de baixa qualidade ou com pouca validação científica acaba se tornando tão problemático quanto a escassez de dados bons.
Na Livia Med, buscamos a aliança entre inteligência artificial avançada e expertise médica. Todo o processo de construção do conhecimento é orientado por especialistas que atuam desde a seleção criteriosa das fontes até a organização e validação dos conteúdos utilizados pelo assistente.
Essa participação direta de médicos garante que cada informação seja contextualizada com relevância clínica, respeitando o grau de evidência e coerência entre recomendações de diferentes protocolos. Os modelos de IA da ferramenta operam sobre bases estruturadas com extremo rigor, o que evita ruídos informacionais e assegura que as respostas reflitam as melhores práticas da medicina baseada em evidências.
Dessa forma, cada resposta do sistema é fruto de uma combinação precisa entre análise automatizada e julgamento clínico. A Inteligência Artificial na medicina precisa promover decisões mais seguras e alinhadas com o que há de mais atual e confiável no cuidado à saúde, por isso é importante que as ferramentas estejam preparadas para isso, sendo focadas no uso médico e embasadas sempre com estudos e conteúdos que passam por curadoria. Assim, elas se tornam um apoio e um assistente que facilita e embasa a decisão final, que sempre será do profissional de medicina.
Fabricio Avini é cofundador e CEO da Care Intelligence, cofundador da Livia Med, PhD em Inteligência Artificial na saúde e mais de 25 anos de experiência no mercado de tecnologia para a saúde