🏛️ Contexto da resolucao
A Resolucao CFM 2.454/2026 e a primeira regulamentacao brasileira especifica para uso de inteligencia artificial na pratica medica. Publicada em marco de 2026, entra em vigor em agosto do mesmo ano.
📊 Por que regulamentar agora
Adocao acelerada: Pesquisas indicam que mais de 40% dos medicos brasileiros ja usam IA generativa no consultorio, a maioria sem nenhum protocolo de seguranca.
Vacuo normativo: O Codigo de Etica Medica de 2018 nao menciona inteligencia artificial. O CFM precisou criar regras especificas.
Casos de dano: Relatos de diagnosticos errados baseados em IA sem validacao clinica motivaram a urgencia regulatoria.
💡 Dica Pratica
Marque no calendario: agosto/2026. A partir dessa data, o desconhecimento da resolucao nao sera desculpa. Leia o texto original no site do CFM e mantenha uma copia no seu segundo cerebro.
✅ 6 obrigacoes do medico
A resolucao estabelece 6 obrigacoes claras para todo medico que utilizar ferramentas de IA na pratica clinica. Nao sao sugestoes — sao deveres eticos.
📋 As 6 obrigacoes
Manter autonomia decisoria — IA sugere, medico decide. A palavra final e sempre humana.
Registrar uso de IA no prontuario — qual ferramenta, para que, qual output, qual decisao.
Informar o paciente — quando a IA participou diretamente da conduta clinica.
Validar criticamente toda saida — nunca aceitar output da IA sem revisao clinica.
Manter-se atualizado — conhecer limitacoes das ferramentas que usa.
Assumir responsabilidade integral — o ato medico e do medico, independente da IA.
🚫 5 proibicoes explicitas
Alem das obrigacoes, a resolucao define 5 linhas vermelhas que nenhum medico pode cruzar ao usar IA.
🚫 PROIBIDO
- • Delegar decisao clinica final a IA
- • Usar IA como substituto do exame clinico
- • Omitir uso de IA quando paciente perguntar
- • Usar ferramentas nao validadas para alto risco
- • Compartilhar dados sem consentimento e anonimizacao
✅ PERMITIDO
- • Usar IA como apoio ao diagnostico diferencial
- • Gerar rascunhos de documentos clinicos
- • Pesquisar literatura com IA
- • Criar material educativo para pacientes
- • Automatizar tarefas administrativas
📋 Modelo de registro em prontuario
O registro e sua principal defesa legal. Um bom registro mostra que voce usou IA de forma responsavel e que a decisao final foi sua.
Template de registro
[IA utilizada]: ChatGPT-4o / Claude / [nome]
[Finalidade]: Apoio diagnostico diferencial / Rascunho SOAP / [descrever]
[Output da IA]: [resumo do que a IA sugeriu]
[Decisao clinica]: Concordo com [X] / Discordo de [Y] porque [justificativa]
[Paciente informado]: Sim / Nao aplicavel (tarefa administrativa)
💡 Dica Pratica
Salve esse template como texto rapido no seu prontuario eletronico. Em 30 segundos voce preenche e esta documentado. A pratica torna automatico.
❌ O que a resolucao NAO faz
A resolucao e um marco importante, mas tem lacunas significativas. Conhece-las evita falsa seguranca.
Lacunas da resolucao
• Nao define quais ferramentas sao "validadas" — criterios ainda vagos
• Nao regulamenta IA em pesquisa clinica — apenas pratica assistencial
• Nao aborda IA em cirurgia robotica — area em crescimento
• Nao distingue IA generativa de IA deterministica — tratamento uniforme
• Nao cria penalidades novas — aplica as ja existentes no CEM
⚠️ Classificacao de risco institucional
Nem todo uso de IA tem o mesmo risco. Classifique sua exposicao para calibrar o nivel de cuidado e documentacao em cada situacao.
🟢 Risco Baixo (Verde)
Pesquisa, educacao, organizacao, formatacao. Registro simples ou dispensavel.
Exemplos: buscar artigos, formatar laudo, gerar material educativo.
🟡 Risco Medio (Amarelo)
Apoio diagnostico, documentacao clinica, triagem. Registro obrigatorio.
Exemplos: diagnostico diferencial, nota SOAP, contestacao de convenio.
🔴 Risco Alto (Vermelho)
Decisao terapeutica, prescricao, laudo pericial. Validacao rigorosa + registro completo.
Exemplos: escolha de quimioterapia, ajuste de dose, laudo INSS.
Resumo do Modulo 9.1
Proximo Modulo:
9.2 - LGPD + Consentimento na pratica