π― Vies como vies de selecao
Vies algoritmico e a versao computacional do vies de selecao que voce aprendeu em epidemiologia. Se os dados de treino sao enviesados, o algoritmo herda e amplifica o vies.
Analogia medica
Imagine um estudo clinico que so incluiu homens brancos de 30-50 anos. Os resultados se aplicam a mulheres negras de 70 anos? Provavelmente nao.
Com IA e a mesma coisa: se o dataset de treino tem 80% de pacientes brancos americanos, a acuracia para a populacao brasileira diversa sera inferior.
Regra: Sempre pergunte β "Em quem esse modelo foi treinado? Meu paciente esta representado?"
π Casos Obermeyer e Daneshjou
Dois casos emblemΓ‘ticos que mostram como vies algoritmico prejudica pacientes reais.
Caso Obermeyer (Science, 2019)
Algoritmo hospitalar usado em 70 milhoes de pacientes nos EUA. Deveria identificar quem precisa de cuidados extras.
O problema: Usava custo de saude como proxy de gravidade. Pacientes negros gastavam menos (barreiras de acesso), entao o algoritmo os classificava como "menos doentes".
Resultado: Pacientes negros com a mesma gravidade de brancos recebiam MENOS cuidado preventivo.
Caso Daneshjou (dermatologia)
Algoritmos de classificacao de lesoes de pele treinados predominantemente com imagens de pele clara.
O problema: Acuracia ate 30% menor em pele escura. Melanomas em pacientes negros detectados mais tarde.
Resultado: A ferramenta funciona bem para quem menos precisa e falha para quem mais precisa.
π 15 criterios para avaliar ferramentas
Antes de adotar qualquer ferramenta de IA, passe pelo checklist de 15 criterios organizados em 3 categorias.
π Seguranca (5 criterios)
- Validacao clinica publicada em peer-review
- Aprovacao regulatoria (ANVISA, FDA, CE)
- Politica de privacidade compativel com LGPD
- Transparencia sobre dados de treino
- Auditabilidade β permite inspecionar decisoes
π Desempenho (5 criterios)
- Acuracia reportada com intervalo de confianca
- Populacao de treino diversa e representativa
- Frequencia de atualizacao do modelo
- Limitacoes declaradas explicitamente
- Integracao com sistemas existentes (PEP, etc)
π§ Pratica (5 criterios)
- Facilidade de uso no fluxo clinico real
- Custo-beneficio justificavel
- Suporte tecnico disponivel
- Feedback positivo de pares (colegas usando)
- Evidencia publicada de impacto clinico
π© Red flags em ferramentas de IA
Se uma ferramenta apresenta qualquer um desses sinais, desconfie antes de adotar.
Red flags criticas
- π© Promete acuracia acima de 95% sem publicacao revisada por pares
- π© Nao declara limitacoes β nenhuma ferramenta e perfeita
- π© Nao informa dados de treino ou populacao utilizada
- π© Nao tem aprovacao regulatoria para uso clinico
- π© Usa termos como "substitui o medico" ou "diagnostico automatico"
- π© Nao permite auditoria ou explicacao das decisoes
- π© Cobra sem oferecer periodo de teste ou trial
- π© Marketing agressivo com depoimentos mas sem evidencia
βοΈ 3 casos etico-legais completos
Casos que transformam principios abstratos em licoes concretas e memoraveis.
Caso 1: Diagnostico sem validacao
Medico seguiu diagnostico da IA sem realizar exame fisico completo. Paciente tratado para condicao errada. Processo etico + judicial.
Licao: A responsabilidade e sempre do medico. IA e ferramenta, nao escudo.
Caso 2: Vazamento de dados via prompt
Medico colou dados completos do paciente (nome, CPF, diagnostico) no ChatGPT. Dados incluidos no dataset de treino. Paciente descobriu e denunciou.
Licao: Anonimizacao nao e opcional β e obrigacao legal (LGPD + CEM).
Caso 3: Triagem enviesada
Hospital adotou ferramenta de triagem por IA. Algoritmo priorizava perfis demograficos especificos. Pacientes indigenas e negros aguardavam mais.
Licao: Responsabilidade compartilhada instituicao + medico. Questionar a ferramenta e obrigacao profissional.
π§ͺ Exercicio: avaliar 1 ferramenta
Escolha 1 ferramenta de IA que voce usa ou considera usar. Aplique os 15 criterios e classifique.
π‘ Passo a passo
- Escolha a ferramenta (ex: ChatGPT, app de dermatologia, calculadora clinica)
- Percorra os 15 criterios, marcando 0 (nao atende), 1 (parcial) ou 2 (atende)
- Some a pontuacao: 0-10 = vermelho, 11-20 = amarelo, 21-30 = verde
- Identifique red flags especificas
- Documente sua conclusao: usar, usar com cautela ou evitar
Resumo do Modulo 9.3
Proximo Modulo:
9.4 - Desafio: Semana 1-2 (Dias 1-10)