Em 27 de fevereiro de 2026, o Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026 — a primeira norma brasileira que regulamenta o uso de inteligência artificial na medicina. Se a sua clínica já usa IA para atendimento, agendamento ou triagem, isso afeta diretamente a sua operação.

O que é a Resolução CFM 2.454/2026

Definição

Resolução CFM nº 2.454/2026

Primeira norma do Conselho Federal de Medicina que regulamenta o uso de inteligência artificial na prática médica brasileira. Publicada em 27/02/2026, entra em vigor em 180 dias (agosto de 2026). Estabelece princípios éticos, direitos e deveres dos médicos, classificação de risco em 4 níveis e exigências de governança para instituições de saúde.

O princípio central é direto: a IA é sempre ferramenta de apoio — nunca substitui o médico. Toda decisão clínica final é humana. Ponto.

A resolução não proíbe o uso de IA na saúde. Ela organiza, classifica e define responsabilidades. Para clínicas que já usam automação no atendimento, isso é uma boa notícia: agora existem regras claras do jogo.

Direitos do médico no uso de IA

A resolução protege o profissional de saúde. O médico tem direitos claros ao utilizar sistemas de IA:

  • Usar IA para apoio clínico, pesquisa e educação
  • Recusar sistemas que não tenham validação científica comprovada
  • Não ser obrigado a seguir recomendações da IA de forma acrítica
  • Ser protegido contra responsabilização por falhas exclusivas do sistema, desde que tenha agido com diligência

Se um sistema de IA sugerir algo que o médico discorda clinicamente, ele tem respaldo legal para ignorar a sugestão. A resolução garante autonomia profissional.

Deveres do médico ao usar IA

Com direitos vêm responsabilidades. A resolução define deveres claros:

  1. 1Manter-se como responsável final por todas as decisões clínicas
  2. 2Exercer julgamento crítico sobre qualquer output gerado por IA
  3. 3Registrar no prontuário quando sistemas de IA forem utilizados no cuidado
  4. 4Informar o paciente de forma clara quando IA participar do atendimento
  5. 5Nunca delegar à IA a comunicação de diagnósticos ou prognósticos sem mediação humana

O ponto 5 é crítico: diagnósticos e prognósticos devem ser comunicados por um profissional de saúde, nunca diretamente por um sistema de IA. Chatbots ou agentes de IA não podem dar diagnóstico.

Classificação de risco: os 4 níveis

A resolução cria uma classificação de risco em 4 níveis para sistemas de IA na saúde. Cada nível define o grau de supervisão necessário:

NívelExemplosSupervisão
BaixoAgendamento, logística, chatbots ou agentes de IA informativosMínima
MédioApoio à decisão clínica com supervisão humana ativaAtiva
AltoSistemas que influenciam decisões críticas ou ações automatizadas com consequência clínica diretaRigorosa
InaceitávelIA que toma decisões clínicas sozinha, dá diagnósticos sem médico ou discrimina pacientesProibido

Ferramentas de agendamento automático e chatbots ou agentes de IA para informações gerais (como horários, endereço e orientações pré-consulta) se enquadram no nível baixo de risco. Já sistemas que influenciam diretamente decisões clínicas exigem supervisão rigorosa.

O que a resolução exige das instituições

Clínicas e instituições que utilizam IA própria ou de terceiros precisam implementar governança formal:

1

Criar Comissão de IA e Telemedicina

Subordinada à diretoria técnica, com coordenação médica obrigatória. Responsável por avaliar, aprovar e monitorar sistemas de IA.

2

Publicar relatórios de transparência

Documentar quais sistemas de IA são utilizados, para quais finalidades e com quais resultados. CRMs e órgãos de controle devem ter acesso.

3

Monitorar vieses discriminatórios

Garantir que os sistemas não discriminem pacientes por raça, gênero, condição socioeconômica ou outros critérios.

4

Garantir auditabilidade

Manter logs e registros que permitam auditorias por CRMs, Ministério Público e CONEP quando solicitadas.

Proteção de dados: LGPD como base

A resolução reforça a conformidade com a LGPD (Lei Geral de Proteção de Dados) como requisito indispensável. Três princípios são obrigatórios:

  • Privacy by design — a proteção de dados deve estar embutida no projeto do sistema desde o início
  • Privacy by default — as configurações padrão devem oferecer o máximo de privacidade ao paciente
  • Compartilhamento restrito — dados sensíveis só podem ser compartilhados quando estritamente necessário para o cuidado

O que isso significa para a sua clínica

Se a sua clínica já usa IA no atendimento — chatbot ou agente de IA no WhatsApp, agendamento automático, triagem inicial — a resolução não muda tudo. Mas exige atenção a alguns pontos:

  • Informe o paciente que ele está interagindo com IA (transparência)
  • Registre no prontuário quando a IA participa do atendimento
  • Não use IA para diagnóstico ou prognóstico sem supervisão médica direta
  • Verifique se o seu fornecedor de IA segue as diretrizes de proteção de dados
  • Prepare-se para agosto de 2026 — quando a resolução entra em vigor oficialmente
180 diasPrazo para adequação. A resolução entra em vigor em agosto de 2026. Sua clínica tem esse período para se preparar.

Checklist prático de adequação

Para facilitar, montamos um passo a passo do que fazer agora:

1

Mapeie os sistemas de IA que a clínica utiliza

Liste todos: chatbot ou agente de IA, agendamento automático, triagem, apoio diagnóstico. Classifique cada um nos 4 níveis de risco.

2

Revise os termos com fornecedores de IA

Confirme que seus fornecedores seguem LGPD, privacy by design e permitem auditoria. Solicite documentação.

3

Atualize os termos de consentimento do paciente

Inclua informação clara sobre o uso de IA no atendimento. O paciente precisa saber.

4

Defina protocolos internos

Documente quando e como a IA é utilizada, quem supervisiona, e como registrar no prontuário.

5

Treine a equipe

Todos que interagem com os sistemas de IA devem entender os limites: o que pode e o que não pode ser delegado.

A Bestie e a Resolução CFM 2.454

A Bestie foi desenhada desde o início para ser uma ferramenta de apoio — não um substituto do profissional de saúde. Isso significa que a Resolução CFM 2.454/2026 valida o modelo que sempre seguimos.

  • Nível de risco baixo — a Bestie atua em agendamento, informações gerais e triagem administrativa, não em decisões clínicas
  • Transparência — os pacientes sabem que estão interagindo com IA desde o primeiro contato
  • LGPD nativa — proteção de dados integrada por design, com dados sensíveis tratados conforme a lei
  • Integração com prontuário — registros de interação disponíveis para a equipe médica
  • Supervisão humana — a equipe da clínica mantém controle total sobre o fluxo de atendimento

A regulamentação é positiva para o mercado. Ela separa ferramentas sérias de soluções improvisadas. Para quem já faz as coisas do jeito certo, é uma validação.

Equipe Bestie

Sua clínica já está preparada?

Fale com a Bestie e descubra como automatizar o atendimento no WhatsApp dentro das novas diretrizes do CFM.

Falar com a Bestie no WhatsApp