Inicio / Trilha 9 / Modulo 9.3
MODULO 9.3

πŸ” Vies algoritmico + avaliacao de ferramentas

Como o vies entra nos algoritmos, casos celebres, 15 criterios para avaliar ferramentas de IA e red flags que indicam problemas serios.

6
Topicos
~60
Minutos
Critico
Nivel
Analise
Tipo
1

🎯 Vies como vies de selecao

Vies algoritmico e a versao computacional do vies de selecao que voce aprendeu em epidemiologia. Se os dados de treino sao enviesados, o algoritmo herda e amplifica o vies.

Analogia medica

Imagine um estudo clinico que so incluiu homens brancos de 30-50 anos. Os resultados se aplicam a mulheres negras de 70 anos? Provavelmente nao.

Com IA e a mesma coisa: se o dataset de treino tem 80% de pacientes brancos americanos, a acuracia para a populacao brasileira diversa sera inferior.

Regra: Sempre pergunte β€” "Em quem esse modelo foi treinado? Meu paciente esta representado?"

2

πŸ“š Casos Obermeyer e Daneshjou

Dois casos emblemΓ‘ticos que mostram como vies algoritmico prejudica pacientes reais.

Caso Obermeyer (Science, 2019)

Algoritmo hospitalar usado em 70 milhoes de pacientes nos EUA. Deveria identificar quem precisa de cuidados extras.

O problema: Usava custo de saude como proxy de gravidade. Pacientes negros gastavam menos (barreiras de acesso), entao o algoritmo os classificava como "menos doentes".

Resultado: Pacientes negros com a mesma gravidade de brancos recebiam MENOS cuidado preventivo.

Caso Daneshjou (dermatologia)

Algoritmos de classificacao de lesoes de pele treinados predominantemente com imagens de pele clara.

O problema: Acuracia ate 30% menor em pele escura. Melanomas em pacientes negros detectados mais tarde.

Resultado: A ferramenta funciona bem para quem menos precisa e falha para quem mais precisa.

3

πŸ“Š 15 criterios para avaliar ferramentas

Antes de adotar qualquer ferramenta de IA, passe pelo checklist de 15 criterios organizados em 3 categorias.

πŸ”’ Seguranca (5 criterios)

  1. Validacao clinica publicada em peer-review
  2. Aprovacao regulatoria (ANVISA, FDA, CE)
  3. Politica de privacidade compativel com LGPD
  4. Transparencia sobre dados de treino
  5. Auditabilidade β€” permite inspecionar decisoes

πŸ“ˆ Desempenho (5 criterios)

  1. Acuracia reportada com intervalo de confianca
  2. Populacao de treino diversa e representativa
  3. Frequencia de atualizacao do modelo
  4. Limitacoes declaradas explicitamente
  5. Integracao com sistemas existentes (PEP, etc)

πŸ”§ Pratica (5 criterios)

  1. Facilidade de uso no fluxo clinico real
  2. Custo-beneficio justificavel
  3. Suporte tecnico disponivel
  4. Feedback positivo de pares (colegas usando)
  5. Evidencia publicada de impacto clinico
4

🚩 Red flags em ferramentas de IA

Se uma ferramenta apresenta qualquer um desses sinais, desconfie antes de adotar.

Red flags criticas

  • 🚩 Promete acuracia acima de 95% sem publicacao revisada por pares
  • 🚩 Nao declara limitacoes β€” nenhuma ferramenta e perfeita
  • 🚩 Nao informa dados de treino ou populacao utilizada
  • 🚩 Nao tem aprovacao regulatoria para uso clinico
  • 🚩 Usa termos como "substitui o medico" ou "diagnostico automatico"
  • 🚩 Nao permite auditoria ou explicacao das decisoes
  • 🚩 Cobra sem oferecer periodo de teste ou trial
  • 🚩 Marketing agressivo com depoimentos mas sem evidencia
5

βš–οΈ 3 casos etico-legais completos

Casos que transformam principios abstratos em licoes concretas e memoraveis.

Caso 1: Diagnostico sem validacao

Medico seguiu diagnostico da IA sem realizar exame fisico completo. Paciente tratado para condicao errada. Processo etico + judicial.

Licao: A responsabilidade e sempre do medico. IA e ferramenta, nao escudo.

Caso 2: Vazamento de dados via prompt

Medico colou dados completos do paciente (nome, CPF, diagnostico) no ChatGPT. Dados incluidos no dataset de treino. Paciente descobriu e denunciou.

Licao: Anonimizacao nao e opcional β€” e obrigacao legal (LGPD + CEM).

Caso 3: Triagem enviesada

Hospital adotou ferramenta de triagem por IA. Algoritmo priorizava perfis demograficos especificos. Pacientes indigenas e negros aguardavam mais.

Licao: Responsabilidade compartilhada instituicao + medico. Questionar a ferramenta e obrigacao profissional.

6

πŸ§ͺ Exercicio: avaliar 1 ferramenta

Escolha 1 ferramenta de IA que voce usa ou considera usar. Aplique os 15 criterios e classifique.

πŸ’‘ Passo a passo

  1. Escolha a ferramenta (ex: ChatGPT, app de dermatologia, calculadora clinica)
  2. Percorra os 15 criterios, marcando 0 (nao atende), 1 (parcial) ou 2 (atende)
  3. Some a pontuacao: 0-10 = vermelho, 11-20 = amarelo, 21-30 = verde
  4. Identifique red flags especificas
  5. Documente sua conclusao: usar, usar com cautela ou evitar

Resumo do Modulo 9.3

βœ“
Vies algoritmico - IA herda vieses dos dados de treino, como vies de selecao
βœ“
Casos Obermeyer e Daneshjou - Discriminacao racial comprovada em algoritmos reais
βœ“
15 criterios - Seguranca, desempenho e pratica para avaliar qualquer ferramenta
βœ“
3 casos etico-legais - Diagnostico sem validacao, vazamento de dados, triagem enviesada

Proximo Modulo:

9.4 - Desafio: Semana 1-2 (Dias 1-10)