CFM cria resolução sobre uso de IA em atendimentos médicos
tecnologia

CFM cria resolução sobre uso de IA em atendimentos médicos

O Conselho Federal de Medicina (CFM) publicou na sexta-feira, 27 de fevereiro, no Diário Oficial da União (DOU), uma resolução que normatiza o uso da inteligência artificial na medicina. De acordo com o texto, sistemas baseados em IA podem ajudar em diagnósticos, gestão e pesquisa, mas não substituem a decisão do médico.

A resolução nº 2454/2026 entra em vigor em 180 dias a partir da publicação e cria obrigações para profissionais e instituições de saúde. Dentre elas estão: classificação de risco das ferramentas, auditorias contínuas, proteção de dados e a criação de uma Comissão de IA e Telemedicina em hospitais com sistemas próprios.

Segundo o vice-presidente do CFM e relator da resolução, Jeancarlo Cavalcante, a medida busca acompanhar o avanço tecnológico sem abrir mão da segurança do paciente.

"A inteligência artificial hoje permeia todos os campos de conhecimento humano; só que, na medicina, ela precisava ser regulada para mitigar os riscos, tanto da utilização pelos médicos, como pelos pacientes", diz.

Classificação de risco e comissão de IA

  • - Médio risco: aqui estão softwares de apoio diagnóstico, que exigem supervisão humana constante e não são capazes de operar de forma autônoma.
  • Além disso, o vice-presidente do CFM destaca que softwares utilizados como dispositivos médicos deverão ser homologados pela Agência Nacional de Vigilância Sanitária (Anvisa).

    IA não decide sozinha

    Além de mecanismos de governança, auditoria e monitoramento de riscos, a resolução veda que sistemas automatizados comuniquem diagnósticos ao paciente sem mediação humana e garante que o médico tenha autonomia para seguir ou não recomendações da IA.

    Para Silvio Cazella, professor do Programa de Pós-Graduação em Tecnologias da Informação e Gestão em Saúde da Universidade Federal de Ciências da Saúde de Porto Alegre (UFCSPA), esse reforço à supervisão humana é outro ponto alinhado às melhores práticas internacionais.

    "A resolução representa um marco regulatório importante ao reforçar que a decisão clínica final deve sempre permanecer com o médico, tendo a IA como ferramenta de apoio", diz.

    Nesse sentido, Assunção Junior define que o profissional passa a ser o "guardião contra a falha da máquina". "Se o médico acatar uma sugestão errada da IA de forma acrítica, a responsabilidade é dele", sintetiza.

    O professor da Faculdade Sírio-Libanês destaca, contudo, que o documento não é unilateralmente punitivo. "A norma também parece proteger o médico contra responsabilização indevida por falhas exclusivas da IA, desde que comprovado o uso diligente, crítico e ético da ferramenta."

    Paciente deve ser informado

    A resolução determina que o paciente seja informado de maneira clara quando a IA for utilizada como apoio relevante em seu cuidado - e que seja respeitada uma eventual recusa quanto ao uso da tecnologia.

    Sobre esse aspecto, Assunção Junior pondera que a transparência com o paciente exigirá orientações adicionais. "Um sistema de agendamento exige o mesmo nível de comunicação (ao paciente) que um algoritmo que auxilia no diagnóstico de câncer?", provoca.

    Formação

    Por fim, o avanço da IA na rotina clínica deve ter impacto na formação dos profissionais de saúde. "O currículo precisará trazer questões éticas, segurança de dados e cibersegurança. Um esforço deverá ser feito para promover AI Literacy (literacia em inteligência artificial) no contexto médico", destaca Cazella.

    Para Assunção Junior, não se trata de transformar médicos em cientistas de dados, mas em profissionais capazes de apresentar à máquina as perguntas certas e, principalmente, desconfiar das respostas. "Esses sistemas podem gerar respostas plausíveis, mas factualmente incorretas", enfatiza ao mencionar a IA generativa.

    Segundo ele, o médico também precisará aprender a traduzir os resultados da IA em linguagem compreensível para o paciente.