O Conselho Federal de Medicina (CFM) publicou, no último dia 27 de fevereiro, uma resolução que regulamenta o uso da inteligência artificial (IA) na prática médica no Brasil. A norma estabelece que a decisão diagnóstica, terapêutica e prognóstica deve permanecer sob responsabilidade do médico, responsável por supervisionar o uso dessas ferramentas e informar o paciente quando elas forem utilizadas como apoio relevante.
A medida ocorre em meio à rápida expansão de sistemas conversacionais voltados ao público. Em janeiro, o ChatGPT, sistema de IA generativa da empresa estadunidense OpenAI, ganhou uma funcionalidade exclusiva para a saúde: o GPT Health.
As novidades formalizam uma tendência já em curso. De acordo com a própria OpenAI, mais de 230 milhões de pessoas fazem perguntas sobre saúde e bem-estar no ChatGPT toda semana. No Brasil, um estudo da Fundação Oswaldo Cruz (Fiocruz) de 2025 com 200 pacientes e 92 médicos identificou que 85,6% das pessoas pesquisaram informações de saúde na internet.
Mas, se por um lado essa prática ajuda o paciente a ter acesso a mais informações, por outro, pode gerar medo e preocupação desnecessários, além de impactar o atendimento.
“Os pacientes já chegam no consultório com a informação que muitas vezes é obtida de uma IA. Então, o médico tem que conhecer isso para orientá-los melhor”, afirma o médico Edson Amaro, superintendente de Dados Globais e Tecnologias Avançadas para Equidade do Einstein Hospital Israelita.
A tecnologia já permeia todo o ciclo do cuidado, da prevenção ao acompanhamento de doenças crônicas, apoiando decisões clínicas e a gestão de dados. Contudo, o uso autônomo dessas ferramentas por leigos levanta dúvidas sobre segurança e impacto real na tomada de decisões em saúde.
Além dos chatbots
Existem diferentes tipos e usos possíveis de sistemas de IA. Na medicina, eles abrangem desde ferramentas conversacionais voltadas ao público, como GPT Health, Gemini (MedGem), do Google, e algoritmos treinados para tarefas específicas, como análise de imagens, apoio ao diagnóstico e predição de risco em hospitais.
A avaliação realizada por 12 especialistas médicos confirmou que essas versões simplificadas mantiveram altos índices de correção (85%) e integridade clínica, sem comprometer a segurança da informação.
“O mundo contemporâneo é fortemente alavancado por soluções de inteligência artificial. Na saúde não é diferente”, observa Amaro. “O principal risco é o profissional não saber o que está fazendo. As pessoas que usam IA têm que estar treinadas para entender suas deficiências, porque esta ferramenta não é 100% precisa.”
Ele defende que existam mecanismos “de contingência e contenção”. “Contingência é um planejamento de como agir quando acontecer algo e, assim, você já sabe de antemão o que fazer. E contenção é um processo para, antes de algo acontecer, você já estar preparado e evitar consequências inadequadas”, explica.
Para o especialista, os resultados mais consistentes até agora ocorreram em áreas que lidam com dados não estruturados, como imagem, áudio e vídeo. Radiologia, patologia, dermatologia e oftalmologia estão entre as especialidades que mais se beneficiaram, em parte porque a análise automatizada desses dados já vem sendo explorada há décadas.
Nesses casos, a IA contribui para detectar padrões, priorizar exames e reduzir variabilidade, sem substituir a decisão final do médico.
Além do cuidado direto, a inteligência artificial também tem gerado ganhos relevantes na gestão de sistemas de saúde. Amaro aponta como exemplo o Einstein, que já utiliza algoritmos para predição de risco, otimização de exames, redução de desperdício e gestão de recursos hospitalares.
IA não é médico
Mas a expansão do uso de IA na saúde não significa que todas as aplicações tenham o mesmo nível de segurança. No caso de ferramentas conversacionais voltadas ao público, a exemplo do GPT Health, o desafio está na forma como a informação é produzida e apropriada por quem não tem formação médica.
“Dependendo, podem ser até alarmistas. Se você estiver em tratamento, fazendo uma série de exames, e colocar só o último [exame], não necessariamente a IA vai dar um resultado mais exato. Ela deveria ser usada como apoio para a pessoa entender melhor aquele assunto.”
Na interação com usuários, porém, o desempenho caiu: em cenários de uso combinado com humanos, as IAs reconheceram menos de 34,5% das condições de saúde relevantes.
No dia a dia, esses limites aparecem menos como erros explícitos e mais como mudanças na dinâmica da consulta. Em vez de sintomas e dúvidas, pacientes chegam com hipóteses prontas e pedidos objetivos por exames, agora não só a partir de buscas no Google, mas também de respostas geradas por IA.
“Hoje em dia, a gente não vê mais pacientes com queixas inespecíficas, sem direcionamento. Eles já chegam com ideias fixas de coisas que acham que têm, de exames que acreditam ser necessários naquela ocasião”, relata a médica de família e comunidade Luisa Portugal Marques, do Einstein Hospital Israelita.
Esse padrão antecede a popularização das IAs. Em 2003, um estudo do Journal of Medical Internet Research já havia mostrado que pacientes recorrem à internet para interpretar sintomas e reduzir incertezas, revelando que 69% daqueles que fazem perguntas online buscavam, na verdade, um aconselhamento personalizado para sua situação.
Poucos anos depois, um estudo publicado no The Journal of the American Board of Family Medicine identificou que 79% dos pacientes pesquisavam doenças ou condições específicas na internet. O trabalho também mostrou impacto direto na consulta: 54% dos usuários discutiam as informações encontradas com seus médicos para verificar se estavam corretas, o que frequentemente exigia mais tempo de atendimento para contextualizar o que o paciente havia lido e corrigir interpretações equivocadas.
A diferença no cenário atual é que as IAs oferecem respostas contínuas, personalizadas e com aparência de autoridade, o que tende a intensificar esses efeitos. “Percebo os pacientes mais ansiosos e muitas vezes muito seguros daquilo, o que dificulta criarmos uma relação e fazermos as negociações dentro da consulta sobre o que pedir e o que não pedir de exame, por exemplo”, conta Marques.
Para ela, o papel do médico é acolher. “Tudo bem as pessoas pesquisarem, porque isso dá a elas acesso a informações sobre saúde, o que ajuda de certa forma na autonomia e na autorresponsabilidade”, analisa a médica de família e comunidade.
Novos riscos
O achado é relevante para ferramentas voltadas à explicação de exames, resumos pós-alta e orientação domiciliar, nas quais a aparência de precisão técnica pode induzir confiança excessiva.
Há ainda evidências de vieses estruturais. Uma análise publicada em 2024 na Mayo Clinic Proceedings: Digital Health identificou que LLMs apresentam vieses em decisões simuladas de saúde, favorecendo determinados perfis de pacientes de acordo com raça, gênero, idade e outras características.
Os autores alertam que, sem mecanismos explícitos de mitigação, o uso dessas tecnologias pode amplificar desigualdades já existentes.
Um estudo de caso do mesmo ano, conduzido por médicos da Universidade da Califórnia em Los Angeles (UCLA), descreveu episódios de psicose de início recente em usuários sem histórico prévio, nos quais a interação prolongada com a IA e o fenômeno de bajulação do sistema funcionaram como elementos de reforço de crenças delirantes.
No Brasil, esse tipo de uso tende a crescer. Um relatório da consultoria Talk Inc., publicado em 2025, indicou que 13% dos brasileiros já utilizam essas ferramentas como “amigo ou conselheiro” para trocar e resolver questões pessoais e emocionais.
Gargalo da governança
A incorporação da IA à saúde esbarra em desafios que vão além do desempenho técnico. Uma das principais dificuldades é transpor resultados experimentais para o uso real, sobretudo quando ferramentas validadas em ambientes controlados passam a ser usadas em larga escala por profissionais ou diretamente pelo público.
Outro obstáculo é a fragmentação regulatória. Embora o CFM tenha publicado resolução específica para o uso da IA na prática médica no país, ainda não há diretrizes abrangentes, como leis, para o uso dessas ferramentas fora do contexto clínico supervisionado.
Esses riscos se tornam ainda mais relevantes em contextos de maior vulnerabilidade social. Em países como o Brasil, onde parte significativa da população tem menor escolaridade e acesso limitado a serviços de saúde, essas ferramentas podem reforçar a percepção de que a consulta médica é dispensável.
Além disso, podem ser instrumentalizadas para amplificar desinformação, servindo como fonte de argumentos para discursos negacionistas sobre vacinas e tratamentos.
“Tem um lado positivo que pode ajudar tanto os profissionais quanto as pessoas que realmente só estão em busca de mais informação sobre saúde, mas também precisamos de ações para cuidar da outra parte da população que não está tão preparada para isso”, conclui Telma Soares, da UFG. A discussão sobre um marco legal para o uso da inteligência artificial em saúde está em andamento no Congresso.
Para Edson Amaro, a ausência de regras claras sobre quais soluções podem ser adotadas como boas práticas dificulta decisões de investimento e implementação, já que desenvolvedores e instituições não sabem se determinadas tecnologias poderão ser utilizadas.
Ele avalia que iniciativas como a recente resolução do CFM representam um avanço ao estabelecer parâmetros para o uso da IA na prática médica. “Existem vários caminhos para que a gente atinja o máximo potencial do uso de IA de maneira responsável, mas isso ainda requer uma conversa maior da sociedade”, afirma.