Em 27 de fevereiro de 2026, o Conselho Federal de Medicina (CFM) publicou a Resolução nº 2.454/2026 — a primeira norma brasileira que regulamenta o uso de inteligência artificial na medicina. Se a sua clínica já usa IA para atendimento, agendamento ou triagem, isso afeta diretamente a sua operação.
O que é a Resolução CFM 2.454/2026
Definição
Resolução CFM nº 2.454/2026
Primeira norma do Conselho Federal de Medicina que regulamenta o uso de inteligência artificial na prática médica brasileira. Publicada em 27/02/2026, entra em vigor em 180 dias (agosto de 2026). Estabelece princípios éticos, direitos e deveres dos médicos, classificação de risco em 4 níveis e exigências de governança para instituições de saúde.
O princípio central é direto: a IA é sempre ferramenta de apoio — nunca substitui o médico. Toda decisão clínica final é humana. Ponto.
A resolução não proíbe o uso de IA na saúde. Ela organiza, classifica e define responsabilidades. Para clínicas que já usam automação no atendimento, isso é uma boa notícia: agora existem regras claras do jogo.
Direitos do médico no uso de IA
A resolução protege o profissional de saúde. O médico tem direitos claros ao utilizar sistemas de IA:
- Usar IA para apoio clínico, pesquisa e educação
- Recusar sistemas que não tenham validação científica comprovada
- Não ser obrigado a seguir recomendações da IA de forma acrítica
- Ser protegido contra responsabilização por falhas exclusivas do sistema, desde que tenha agido com diligência
Se um sistema de IA sugerir algo que o médico discorda clinicamente, ele tem respaldo legal para ignorar a sugestão. A resolução garante autonomia profissional.
Deveres do médico ao usar IA
Com direitos vêm responsabilidades. A resolução define deveres claros:
- 1Manter-se como responsável final por todas as decisões clínicas
- 2Exercer julgamento crítico sobre qualquer output gerado por IA
- 3Registrar no prontuário quando sistemas de IA forem utilizados no cuidado
- 4Informar o paciente de forma clara quando IA participar do atendimento
- 5Nunca delegar à IA a comunicação de diagnósticos ou prognósticos sem mediação humana
O ponto 5 é crítico: diagnósticos e prognósticos devem ser comunicados por um profissional de saúde, nunca diretamente por um sistema de IA. Chatbots ou agentes de IA não podem dar diagnóstico.
Classificação de risco: os 4 níveis
A resolução cria uma classificação de risco em 4 níveis para sistemas de IA na saúde. Cada nível define o grau de supervisão necessário:
| Nível | Exemplos | Supervisão |
|---|---|---|
| Baixo | Agendamento, logística, chatbots ou agentes de IA informativos | Mínima |
| Médio | Apoio à decisão clínica com supervisão humana ativa | Ativa |
| Alto | Sistemas que influenciam decisões críticas ou ações automatizadas com consequência clínica direta | Rigorosa |
| Inaceitável | IA que toma decisões clínicas sozinha, dá diagnósticos sem médico ou discrimina pacientes | Proibido |
Ferramentas de agendamento automático e chatbots ou agentes de IA para informações gerais (como horários, endereço e orientações pré-consulta) se enquadram no nível baixo de risco. Já sistemas que influenciam diretamente decisões clínicas exigem supervisão rigorosa.
O que a resolução exige das instituições
Clínicas e instituições que utilizam IA própria ou de terceiros precisam implementar governança formal:
Criar Comissão de IA e Telemedicina
Subordinada à diretoria técnica, com coordenação médica obrigatória. Responsável por avaliar, aprovar e monitorar sistemas de IA.
Publicar relatórios de transparência
Documentar quais sistemas de IA são utilizados, para quais finalidades e com quais resultados. CRMs e órgãos de controle devem ter acesso.
Monitorar vieses discriminatórios
Garantir que os sistemas não discriminem pacientes por raça, gênero, condição socioeconômica ou outros critérios.
Garantir auditabilidade
Manter logs e registros que permitam auditorias por CRMs, Ministério Público e CONEP quando solicitadas.
Proteção de dados: LGPD como base
A resolução reforça a conformidade com a LGPD (Lei Geral de Proteção de Dados) como requisito indispensável. Três princípios são obrigatórios:
- Privacy by design — a proteção de dados deve estar embutida no projeto do sistema desde o início
- Privacy by default — as configurações padrão devem oferecer o máximo de privacidade ao paciente
- Compartilhamento restrito — dados sensíveis só podem ser compartilhados quando estritamente necessário para o cuidado
O que isso significa para a sua clínica
Se a sua clínica já usa IA no atendimento — chatbot ou agente de IA no WhatsApp, agendamento automático, triagem inicial — a resolução não muda tudo. Mas exige atenção a alguns pontos:
- Informe o paciente que ele está interagindo com IA (transparência)
- Registre no prontuário quando a IA participa do atendimento
- Não use IA para diagnóstico ou prognóstico sem supervisão médica direta
- Verifique se o seu fornecedor de IA segue as diretrizes de proteção de dados
- Prepare-se para agosto de 2026 — quando a resolução entra em vigor oficialmente
Checklist prático de adequação
Para facilitar, montamos um passo a passo do que fazer agora:
Mapeie os sistemas de IA que a clínica utiliza
Liste todos: chatbot ou agente de IA, agendamento automático, triagem, apoio diagnóstico. Classifique cada um nos 4 níveis de risco.
Revise os termos com fornecedores de IA
Confirme que seus fornecedores seguem LGPD, privacy by design e permitem auditoria. Solicite documentação.
Atualize os termos de consentimento do paciente
Inclua informação clara sobre o uso de IA no atendimento. O paciente precisa saber.
Defina protocolos internos
Documente quando e como a IA é utilizada, quem supervisiona, e como registrar no prontuário.
Treine a equipe
Todos que interagem com os sistemas de IA devem entender os limites: o que pode e o que não pode ser delegado.
A Bestie e a Resolução CFM 2.454
A Bestie foi desenhada desde o início para ser uma ferramenta de apoio — não um substituto do profissional de saúde. Isso significa que a Resolução CFM 2.454/2026 valida o modelo que sempre seguimos.
- Nível de risco baixo — a Bestie atua em agendamento, informações gerais e triagem administrativa, não em decisões clínicas
- Transparência — os pacientes sabem que estão interagindo com IA desde o primeiro contato
- LGPD nativa — proteção de dados integrada por design, com dados sensíveis tratados conforme a lei
- Integração com prontuário — registros de interação disponíveis para a equipe médica
- Supervisão humana — a equipe da clínica mantém controle total sobre o fluxo de atendimento
“A regulamentação é positiva para o mercado. Ela separa ferramentas sérias de soluções improvisadas. Para quem já faz as coisas do jeito certo, é uma validação.”
— Equipe Bestie
Sua clínica já está preparada?
Fale com a Bestie e descubra como automatizar o atendimento no WhatsApp dentro das novas diretrizes do CFM.
Falar com a Bestie no WhatsApp



