📜 O que e a Resolucao CFM 2.454/2026
A Resolucao CFM 2.454/2026 e o primeiro marco regulatorio brasileiro sobre o uso de Inteligencia Artificial na pratica medica. Publicada em fevereiro de 2026, com vigencia a partir de agosto de 2026, ela estabelece as regras do jogo para medicos que usam IA.
📌 Dados essenciais
- • Publicacao: Fevereiro de 2026
- • Vigencia: Agosto de 2026 (6 meses para adaptacao)
- • Escopo: Todo medico que utilizar IA na pratica clinica
- • Principio central: A IA e ferramenta de apoio — a responsabilidade e sempre do medico
💡 Dica Pratica
Pense na resolucao como a "bula" do uso de IA na medicina. Assim como voce le a bula antes de prescrever um medicamento novo, leia a resolucao antes de adotar IA na sua pratica. O periodo de adaptacao ate agosto de 2026 e seu tempo para se preparar.
✅ O que DEVE fazer
A resolucao estabelece 6 obrigacoes para o medico que utiliza IA. Sao regras simples que se tornam habito rapidamente — e que protegem voce e seu paciente.
✓ As 6 obrigacoes do medico
- ✓ 1. Decisao final e sua: A IA sugere, voce decide. Sempre.
- ✓ 2. Registrar no prontuario: Documentar quando e como a IA foi utilizada.
- ✓ 3. Informar o paciente: Transparencia sobre o uso de IA no atendimento.
- ✓ 4. Manter-se atualizado: Conhecer capacidades e limitacoes da IA que utiliza.
- ✓ 5. Usar ferramentas validadas: Preferir ferramentas com conformidade regulatoria.
- ✓ 6. Supervisionar sempre: Nenhum output de IA deve ir ao paciente sem sua revisao.
📊 Analogia medica
Pense na IA como um exame complementar. Voce pede uma tomografia, mas nao entrega o laudo diretamente ao paciente sem sua interpretacao. Com a IA e igual: ela gera um "resultado", voce interpreta, valida e decide.
🚫 O que NAO pode fazer
As 5 proibicoes da resolucao existem para proteger o paciente. Violar qualquer uma pode resultar em processo etico-disciplinar no CRM.
✗ O que NAO fazer
- ✗ 1. Delegar decisao clinica a IA: "A IA mandou fazer" nao e justificativa medica.
- ✗ 2. Usar IA sem supervisao: Output direto ao paciente sem revisao medica.
- ✗ 3. Ignorar vieses da ferramenta: IA treinada em populacao diferente pode errar sistematicamente.
- ✗ 4. Usar dados sem conformidade LGPD: Nome, CPF e dados identificaveis na IA publica.
- ✗ 5. Omitir uso de IA ao paciente: Se a IA influenciou a decisao, o paciente tem direito de saber.
💡 Dica Pratica
Regra de ouro: se voce nao faria com um residente, nao faca com a IA. Voce nao deixaria um R1 decidir sozinho, nao entregaria o laudo dele sem revisar, e nao esconderia do paciente que um residente participou do caso.
📝 Modelo de registro no prontuario
A resolucao exige que o uso de IA seja documentado no prontuario. Ter um modelo padronizado economiza tempo e garante conformidade. Copie, adapte e use.
📋 Template de registro
"Utilizei ferramenta de IA [tipo: generativa/diagnostica/documentacao] para apoio em [tarefa: diagnostico diferencial/revisao de literatura/documentacao clinica]. Ferramenta: [nome, se aplicavel]. Resultado revisado e validado pelo medico assistente. [Se discordou:] Discordei da sugestao da IA em [ponto] e optei por [conduta] conforme [justificativa/protocolo]."
✓ Exemplo correto
"Utilizei ferramenta de IA generativa para apoio em diagnostico diferencial de dor toracica. Resultado revisado. Priorizei investigacao de SCA conforme protocolo institucional."
✗ Exemplo errado
"Usei ChatGPT." (Sem detalhes da tarefa, sem mencao de revisao, sem justificativa de conduta.)
💡 O que a resolucao NAO faz
Muitos medicos interpretam a resolucao como proibitiva. Nao e. Ela regulamenta o uso responsavel, nao impede a inovacao. Entender o que ela NAO faz elimina barreiras desnecessarias.
🔓 O que a resolucao NAO faz
- • NAO proibe o uso de IA: Ela regulamenta, nao proibe. Voce pode e deve usar.
- • NAO cria certificacao obrigatoria: Nao ha "certificado de IA para medicos" exigido.
- • NAO define quais ferramentas usar: A escolha da ferramenta e sua.
- • NAO impede a inovacao: O objetivo e uso seguro, nao restricao.
📊 Perspectiva
Assim como o Codigo de Etica Medica nao proibe cirurgias — ele define como faze-las com seguranca — a resolucao nao proibe IA. Ela define as regras para uso responsavel. Medicos que dominam essas regras terao vantagem competitiva.
⚠️ Classificacao de risco institucional
Nem todo uso de IA tem o mesmo nivel de risco. A classificacao em 4 niveis ajuda a definir o grau de supervisao necessario para cada aplicacao.
🟢 Risco Baixo
Ferramentas administrativas: agendamento, organizacao de documentos, transcricao de reunioes, pesquisa de literatura. Supervisao minima necessaria.
🟡 Risco Medio
Apoio diagnostico com supervisao: diagnostico diferencial, resumo de exames, sugestao de condutas. Requer revisao medica obrigatoria antes de qualquer acao.
🟠 Risco Alto
IA em decisoes clinicas criticas: triagem de emergencia, sugestao de dose de medicamentos, interpretacao de imagens diagnosticas. Requer supervisao rigorosa e validacao dupla.
🔴 Risco Inaceitavel
IA autonoma sem supervisao: decisao clinica delegada a IA, prescricao automatica sem revisao, diagnostico final sem medico. PROIBIDO pela resolucao.
💡 Dica Pratica
Antes de usar uma ferramenta de IA, pergunte-se: "Se essa ferramenta errar, qual o impacto no paciente?" Quanto maior o impacto potencial, maior deve ser sua supervisao. Ferramentas de texto (rascunho, pesquisa) sao risco baixo. Ferramentas de decisao clinica sao risco alto.
📋 Resumo do Modulo
Proximo Modulo:
3.2 - LGPD no consultorio: como usar IA sem violar a lei