π Resolucao CFM 2.454/2026: o que voce precisa saber
Entenda a regulamentacao do CFM sobre uso de IA na medicina. O que deve fazer, o que nao pode, e como documentar.
A Resolucao CFM 2.454/2026 e o primeiro marco regulatorio do Conselho Federal de Medicina sobre uso de Inteligencia Artificial na pratica medica brasileira. Publicada em fevereiro de 2026, entra em vigor em agosto de 2026.
Todo medico que usa IA precisa conhecer as regras do jogo. Descumprir a resolucao pode gerar processo etico. Conhece-la te protege e te da seguranca para usar IA com confianca.
Marco regulatorio, CFM, vigencia agosto/2026, responsabilidade medica, supervisao humana obrigatoria, registro em prontuario.
Sao as 6 obrigacoes que a resolucao impoe ao medico: decisao final e sempre sua, registrar uso de IA no prontuario, informar o paciente, manter-se atualizado, usar ferramentas validadas e supervisionar sempre.
Cumprir estas obrigacoes te protege juridicamente e garante que a IA seja uma aliada, nao um risco. Sao regras simples que se tornam habito rapidamente.
Decisao final humana, registro no prontuario, informar paciente, atualizacao continua, validacao de ferramentas, supervisao permanente.
As 5 proibicoes da resolucao: delegar decisao clinica a IA, usar IA sem supervisao humana, ignorar vieses da ferramenta, usar dados sem conformidade LGPD, e omitir uso de IA ao paciente.
Saber o que nao pode evita erros graves. Cada proibicao existe para proteger o paciente e o medico. Violar qualquer uma pode resultar em processo etico-disciplinar.
Delegacao proibida, supervisao obrigatoria, vieses algoritmicos, LGPD, transparencia com paciente.
Modelo padronizado para registrar uso de IA no prontuario: "Utilizei ferramenta de IA [tipo] para apoio em [tarefa]. Resultado revisado e validado pelo medico assistente."
O registro adequado e obrigatorio pela resolucao e protege o medico juridicamente. Ter um modelo pronto economiza tempo e garante padronizacao.
Registro padronizado, prontuario eletronico, rastreabilidade, documentacao legal, template CFM.
A resolucao NAO proibe o uso de IA, NAO cria certificacao obrigatoria, NAO define quais ferramentas usar, e NAO impede a inovacao. Ela regulamenta, nao proibe.
Muitos medicos tem medo de usar IA por interpretar a resolucao como proibitiva. Entender o que ela NAO faz elimina barreiras desnecessarias e encoraja o uso responsavel.
Regulamentacao vs proibicao, liberdade de inovacao, ausencia de certificacao, autonomia na escolha de ferramentas.
Sistema de classificacao de risco para uso de IA em instituicoes de saude. Risco baixo: ferramentas administrativas. Medio: apoio diagnostico com supervisao. Alto: IA em decisoes clinicas criticas. Inaceitavel: IA autonoma sem supervisao.
Permite avaliar cada ferramenta de IA que voce usa e adequar o nivel de supervisao. Quanto maior o risco, maior deve ser a vigilancia humana.
Risco baixo, medio, alto, inaceitavel, matriz de risco, supervisao proporcional, governanca de IA em saude.
π LGPD no consultorio: como usar IA sem violar a lei
Aprenda a anonimizar dados, usar ferramentas com compliance e proteger seu paciente e sua carreira.
Colocar dados identificaveis do paciente numa IA generativa e como discutir o caso no elevador do hospital: qualquer pessoa pode ouvir. Na staffing (sessao clinica fechada), voce controla quem ouve. A IA publica e o elevador.
A analogia torna intuitivo o que a LGPD exige. Voce ja sabe que nao deve discutir caso no elevador. Com a IA e a mesma logica, aplicada ao ambiente digital.
Dados identificaveis, ambiente controlado vs publico, LGPD, privacidade digital, analogia elevador/staffing.
Lista de dados que NUNCA devem ser inseridos em ferramentas de IA: nome completo, CPF, RG, endereco, telefone, numero de prontuario, e qualquer dado que identifique diretamente o paciente.
Um unico deslize com dados identificaveis pode gerar processo por violacao da LGPD. Memorizar esta lista e tao importante quanto saber contraindicacoes de medicamentos.
Nome, CPF, RG, endereco, telefone, numero de prontuario, dados sensiveis, identificacao direta.
Dados que podem ser usados com seguranca: idade (nao data de nascimento), sexo, comorbidades, lista de medicacoes, resultados de exames anonimizados, sinais e sintomas.
Saber o que PODE usar e tao importante quanto saber o que nao pode. Isso evita a paralisia de "nao posso usar nada" e mostra que e perfeitamente possivel usar IA com dados clinicos de forma segura.
Idade, sexo, comorbidades, medicacoes, resultados anonimizados, dados desidentificados.
Comparacao lado a lado de dados antes e depois da anonimizacao. Antes: "Maria Silva, 62 anos, CPF 123.456.789-00, mora na Rua X". Depois: "Paciente feminina, 62 anos, com HAS e DM2".
Exemplos concretos tornam o processo de anonimizacao automatico. Depois de ver 3-4 exemplos, voce faz mentalmente em segundos antes de colar qualquer dado na IA.
Anonimizacao pratica, antes vs depois, desidentificacao, dados clinicos seguros, processo mental rapido.
Ferramentas que oferecem melhor compliance com privacidade de dados: Claude (Anthropic), ChatGPT Team/Enterprise (OpenAI), Perplexity Pro. Estas versoes nao usam seus dados para treinar modelos. NOS NAO FORNECEMOS estas ferramentas.
Nem toda ferramenta de IA trata dados da mesma forma. Escolher a ferramenta certa e tao importante quanto anonimizar. A versao gratuita do ChatGPT, por exemplo, pode usar seus dados para treinamento.
Compliance, politica de dados, versoes pagas vs gratuitas, treinamento de modelos, Claude, ChatGPT Team, Perplexity Pro.
Checklist de 5 passos obrigatorios antes de colar dados na IA: 1) Remover nome e iniciais, 2) Remover CPF/RG/documentos, 3) Remover endereco e telefone, 4) Remover numero de prontuario, 5) Substituir data de nascimento por idade.
Um checklist simples e memorizavel torna o processo automatico. Em 10 segundos voce garante conformidade com a LGPD. Imprima e cole ao lado do computador.
Checklist de 5 passos, anonimizacao rapida, rotina de seguranca, habito de privacidade, LGPD pratica.
π€ Consentimento informado na era da IA
Quando e como informar o paciente sobre o uso de IA. Modelos de frases, FAQ e adaptacao por contexto.
Situacoes em que informar o paciente e obrigatorio: quando a IA influenciou o diagnostico ou tratamento, quando gerou parte do laudo, quando foi usada na triagem, ou quando dados do paciente foram processados por IA.
O consentimento informado e pilar da etica medica. Na era da IA, ele ganha novas dimensoes. Saber quando informar protege a relacao medico-paciente e cumpre a resolucao CFM.
Consentimento informado, transparencia, influencia no diagnostico, geracao de laudo, triagem com IA.
Situacoes que nao exigem informar o paciente: uso pessoal da IA para estudo, rascunho que sera completamente reescrito pelo medico, ferramentas administrativas como agendamento ou organizacao.
Evita o excesso de cautela que paralisa o uso de IA. Nem todo uso exige comunicacao ao paciente. Saber diferenciar traz fluidez a pratica.
Uso pessoal, estudo proprio, rascunho reescrito, ferramentas administrativas, proporcionalidade.
Modelo de frase para comunicar uso de IA em apoio diagnostico: "Utilizei ferramenta de IA como apoio para analisar seus exames. A decisao clinica e inteiramente minha, e todos os resultados foram por mim revisados."
Ter uma frase pronta elimina o constrangimento do momento. O paciente recebe a informacao de forma natural, transparente e tranquilizadora.
Comunicacao transparente, modelo padronizado, confianca do paciente, apoio diagnostico, revisao medica.
Modelo de frase para uso de IA em documentacao: "Para agilizar a documentacao, usamos ferramenta de transcricao assistida por IA. Toda informacao registrada e revisada e validada por mim antes de ser incluida no seu prontuario."
Ferramentas de ambient scribing estao se tornando comuns. Ter uma frase pronta para explicar ao paciente que a consulta sera transcrita por IA e essencial para a confianca.
Transcricao por IA, ambient scribing, documentacao assistida, revisao e validacao, transparencia.
Respostas prontas para as perguntas mais comuns dos pacientes: "A maquina vai me diagnosticar?" (Nao, a decisao e sempre do medico), "Meus dados estao seguros?" (Sim, sao anonimizados antes de qualquer uso).
Pacientes vao perguntar. Ter respostas claras e empticas prontas transmite confianca e profissionalismo. Evita improvisacao em momentos delicados.
FAQ, duvidas do paciente, comunicacao empatica, seguranca de dados, papel do medico vs IA.
Como adaptar a comunicacao sobre IA conforme o contexto: no consultorio ha tempo para explicar, na emergencia a comunicacao e breve e objetiva, na teleconsulta pode ser incluida no termo de consentimento digital.
A forma de comunicar importa tanto quanto o conteudo. Uma explicacao longa na emergencia atrapalha. Uma comunicacao fria no consultorio gera desconfianca. Adaptar e essencial.
Contexto de comunicacao, consultorio, emergencia, teleconsulta, termo digital, proporcionalidade, timing.
π©Ί Caso integrador: usando IA com seguranca
Caso clinico completo da Dra. Marina integrando etica, LGPD, consentimento e boas praticas das 3 trilhas.
Dra. Marina, 34 anos, clinica geral, trabalha numa UBS. Sexta-feira, 16h30. Paciente de 62 anos chega com dor toracica. Ela quer usar IA para apoiar sua decisao clinica. Como fazer corretamente?
Casos integradores consolidam o aprendizado de todos os modulos anteriores. Voce pratica a tomada de decisao em cenario realista, aplicando etica, LGPD e boas praticas de uma so vez.
Caso clinico realista, UBS, clinica geral, dor toracica, pressao do tempo, decisao clinica com apoio de IA.
Dra. Marina anonimiza os dados (remove nome, CPF, prontuario) e usa o framework RCCFR para consultar a IA: Role (clinica geral), Contexto (62 anos, dor toracica, fatores de risco), Comando, Formato, Restricoes. Esse e o caminho correto.
Integra na pratica a anonimizacao (Modulo 3.2) com o prompt engineering (Trilha 2). Mostra que usar IA corretamente e um fluxo natural, nao um obstaculo burocrΓ‘tico.
Anonimizacao pratica, RCCFR aplicado, fluxo correto, integracao trilha 2 + trilha 3.
A IA sugere "observacao com IBP" para a dor toracica, mas Dra. Marina reconhece que SCA (Sindrome Coronariana Aguda) deve ser prioridade. A IA errou β zona vermelha! A decisao final e SEMPRE do medico.
Esse e o cenario que justifica toda a Trilha 3. A IA pode errar de forma perigosa. O medico que confia cegamente coloca o paciente em risco. Saber quando discordar da IA salva vidas.
Zona vermelha, erro da IA, SCA vs DRGE, decisao final do medico, supervisao critica, alucinacao perigosa.
Dra. Marina registra no prontuario: "Utilizei ferramenta de IA generativa para apoio em diagnostico diferencial de dor toracica. A IA sugeriu DRGE como hipotese principal. Discordei da sugestao e priorizei investigacao de SCA conforme protocolo institucional."
O registro mostra que o medico usou a IA, avaliou criticamente, e tomou decisao autonoma. Isso e exatamente o que a resolucao CFM exige. E protecao juridica maxima.
Registro no prontuario, modelo CFM, discordancia documentada, autonomia medica, protecao juridica.
Apos o atendimento, Dra. Marina usa Elicit e Consensus para revisar a literatura sobre dor toracica em UBS. Valida sua decisao com evidencias e identifica pontos de melhoria para casos futuros.
A IA de pesquisa complementa a IA generativa. Apos o caso, voce pode aprofundar com ferramentas baseadas em evidencias. Isso fecha o ciclo de aprendizado continuo.
Elicit, Consensus, revisao de literatura, aprendizado pos-caso, IA de pesquisa, ciclo de melhoria.
Checklist que integra as 3 trilhas: Trilha 1 (entender IA), Trilha 2 (usar ferramentas com RCCFR), Trilha 3 (etica, LGPD e consentimento). Inclui CTA para Material de Apoio e para AutomationsAI (nivel avancado).
Consolidar tudo em um checklist pratico transforma conhecimento em acao. Voce sai com um guia que cabe num post-it e cobre 90% dos cenarios do dia a dia.
Checklist integrado, 3 trilhas consolidadas, Material de Apoio, AutomationsAI, proximo nivel, acao pratica.