Por que a IA em saúde falha sem o médico no centro do desenho

·

·

Por que a IA em saúde falha sem o médico no centro do desenho

Por que este tema importa para a gestão na área da saúde?

  • Impacto direto na eficiência: soluções de IA e telemedicina mal desenhadas geram retrabalho, atrasos e frustração em vez de produtividade em clínicas e hospitais.
  • Risco financeiro e regulatório: investimentos em tecnologia sem co-desenho clínico tendem a fracassar, aumentam o risco assistencial e podem gerar conflitos com normas da ANS, CFM e LGPD.
  • Diferencial competitivo: serviços de saúde que alinham IA ao fluxo real de trabalho clínico ganham em qualidade, fidelização de pacientes e sustentabilidade econômica.

Da promessa ao atrito: o que a IA realmente muda no dia a dia da clínica

A discussão global sobre inteligência artificial em saúde costuma se concentrar em grandes hospitais e centros cirúrgicos, como no artigo “The Perioperative AI Reality Check: Why Hospital Tech Fails Without Clinician Co-Design”. Mas, para quem administra consultórios, clínicas de especialidade, centros de diagnóstico ou pequenos hospitais no Brasil, a pergunta é outra: como transformar essa promessa em ganho real de agenda, faturamento e qualidade assistencial, sem aumentar a sobrecarga da equipe?

A experiência de soluções de IA em perioperatório mostra um padrão que se repete em qualquer ambiente de saúde: a tecnologia funciona bem em piloto, mas trava na vida real porque não conversa com o fluxo cotidiano de médicos, enfermeiros, recepção e faturamento. Ferramentas que exigem dezenas de cliques, telas paralelas ao prontuário, cadastros repetidos ou alertas irrelevantes acabam ignoradas. O resultado é conhecido: culpamos a “resistência do médico à tecnologia”, quando na verdade o problema é resistência a sistemas que atrapalham o cuidado.

Para a gestão, isso tem consequências muito concretas: leitos mal utilizados, blocos cirúrgicos ociosos, agendas desorganizadas, pacientes perdidos no follow-up, glosas evitáveis. O mesmo raciocínio vale para uma clínica de oftalmologia em Campinas, um consultório de reumatologia em Porto Alegre ou uma rede de atenção primária em telemedicina atendendo o Norte e Nordeste. A IA só cria valor quando encaixa no trabalho clínico real – e não quando tenta substituí-lo de fora para dentro.

Co-desenho clínico: o elo perdido entre IA, telemedicina e produtividade

Quando Andrew Fisher descreve o fracasso de tecnologias hospitalares sem co-design com clínicos, ele aponta um princípio que vale igualmente para a saúde suplementar, clínicas populares e healthtechs brasileiras: nenhuma solução de IA, por mais sofisticada, sobrevive ao primeiro plantão se não for co-criada com quem está na ponta. Isso vale tanto para cirurgias complexas quanto para a triagem de pacientes por telemedicina em um ambulatório de baixa complexidade.

No Brasil, onde cerca de 70% dos atendimentos em saúde passam de alguma forma pelo setor privado ou suplementar, o desafio é ainda mais agudo. Muitos softwares de gestão clínica e telemedicina são concebidos a partir da lógica do desenvolvedor ou do gestor financeiro, não da lógica da consulta de 15 minutos com fila na recepção, três sistemas abertos e WhatsApp tocando. Não raro, vemos “IA” aparecendo como chatbot superficial, assistente de prescrição fora de contexto ou painel de indicadores que ninguém acessa – enquanto problemas estruturais, como organização da sala de espera, reconciliação medicamentosa ou adesão ao tratamento, continuam sem solução.

O co-desenho clínico muda esse jogo. Em vez de pedir que o médico “se adapte” à tecnologia, parte-se do princípio oposto: a tecnologia é que deve se adaptar ao raciocínio clínico, ao tempo de consulta, à jornada do paciente e às exigências regulatórias locais. Na prática, isso significa envolver médicos, enfermeiros, secretárias, faturistas e até pacientes desde o início do desenho da solução. Em um projeto de telemedicina, por exemplo, é o médico de família quem sabe quais sinais de alerta precisam estar à vista já nos primeiros 30 segundos da consulta online; é a recepcionista quem sabe quais dados faltam com frequência; é o jurídico quem sabe até onde se pode ir em automação sem ferir sigilo e LGPD.

Exemplos práticos: IA que ajuda e IA que atrapalha

Uma rede de clínicas de cardiologia que atenda milhares de consultas por mês pode usar IA para priorizar automaticamente pacientes de maior risco, sugerindo encaixes em horários específicos, ajustando janelas para exames complementares e sinalizando cancelamentos em tempo real. Quando o algoritmo é construído com participação dos cardiologistas, da enfermagem e da equipe administrativa, a ferramenta aprende que não basta “otimizar ocupação”: é preciso respeitar tempos mínimos de consulta, bloquear horários de exames mais complexos, permitir pausas para laudos e encaixar pacientes de retorno em janelas adequadas.

Em contraste, já é comum ver clínicas que compraram sistemas de “IA para lembrete de consulta” que apenas disparam mensagens genéricas por WhatsApp ou SMS, sem analisar histórico de faltas, distância até a unidade, tipo de convênio, sazonalidade ou perfil do paciente. Em vez de reduzir no-show, viram ruído: pacientes bloqueiam o número, secretárias voltam a ligar manualmente, o gestor paga por uma “solução inteligente” que não entrega inteligência alguma. Faltou justamente o olhar clínico e operacional para definir o que é um lembrete realmente útil naquela realidade específica.

No perioperatório, Fisher descreve como a IA pode reorganizar o uso de salas cirúrgicas, reduzir cancelamentos e melhorar predição de tempo de cirurgia. Em clínicas brasileiras, o paralelismo é claro: IA pode apoiar desde o agendamento inteligente de exames, passando por protocolos pré-consulta (checklists automatizados, coleta prévia de sintomas e documentos), até o seguimento pós atendimento (monitoramento remoto de sinais vitais, revisão de exames por telemedicina, alertas de risco). Mas sem co-desenho, essas funcionalidades viram apenas mais uma tela para preencher, em vez de um aliado silencioso na retaguarda.

Telemedicina, ética e o risco da automação cega

O avanço da telemedicina no Brasil – consolidado desde a pandemia e hoje regulado por resoluções específicas do CFM – abriu espaço para a integração entre IA e atendimento remoto. Porém, esse casamento traz dilemas éticos que não podem ser terceirizados ao fornecedor de software. Quem responde por um erro de triagem algorítmica? Como garantir que um sistema que automatiza condutas não reforce desigualdades já existentes?

Para gestores de saúde, isso significa institucionalizar algumas práticas: (1) comitês de governança de dados e IA, com participação clínica e jurídica; (2) validação contínua de algoritmos, medindo impacto real em desfechos (tempo de espera, taxa de internação evitável, satisfação do paciente) e não apenas número de acessos à plataforma; (3) transparência com o paciente, deixando claro quando há uso de IA, quais dados são utilizados e quais decisões permanecem exclusivamente humanas.

Tendências globais apontam para modelos híbridos de cuidado: parte presencial, parte remoto, parte automatizado. A experiência internacional mostra que sistemas que mais ganham produtividade não são os que mais automatizam, mas os que melhor distribuem o trabalho entre humanos e máquinas. No Brasil, isso pode significar desde delegar a IA a triagem de mensagens de WhatsApp corporativo, até usar modelos generativos para rascunhar anamneses e relatórios, sempre com revisão do profissional. A linha ética se mantém clara: a IA apoia, mas não substitui o julgamento clínico.

O que gestores podem fazer hoje: passos práticos

Para que clínicas, consultórios e hospitais brasileiros aproveitem o potencial da IA e da telemedicina sem cair em promessas vazias, alguns movimentos são possíveis de imediato:

  • Mapear o fluxo real de trabalho: antes de contratar qualquer tecnologia, desenhar em detalhe a jornada do paciente e da equipe – da marcação à cobrança. O problema a ser resolvido precisa vir antes da solução.
  • Criar times de co-desenho: envolver médicos, enfermagem, recepção, TI e financeiro na escolha e na implementação da ferramenta, com direito a veto se o sistema piorar a experiência de trabalho.
  • Exigir métricas clínicas e operacionais: negociar com fornecedores indicadores concretos (redução de no-show, aumento da taxa de ocupação, queda de glosas, melhoria em NPS) e revisar esses dados trimestralmente.
  • Capacitar para uso crítico da IA: formar a equipe para entender limites, vieses e riscos da inteligência artificial. Um usuário crítico protege mais a instituição do que qualquer cláusula contratual.
  • Começar pequeno, medir e escalar: pilotos em uma unidade ou especialidade, com metas claras, revisão de resultados e ajustes com base no feedback da equipe.

No fim, a mensagem que ecoa do perioperatório de um grande hospital americano até o consultório de bairro em Salvador é a mesma: tecnologia em saúde é projeto de gente, não de máquina. Quem coloca o clínico no centro do desenho colhe IA e telemedicina como aliadas da gestão. Quem ignora esse princípio, apenas troca um problema antigo – ineficiência – por um novo: automação do caos.

Principais Perguntas Respondidas

  • 1. Por que tantas soluções de IA em saúde fracassam na prática?
    Porque são desenhadas sem participação efetiva de médicos, enfermeiros e equipes de linha de frente, criando atrito com o fluxo real de trabalho em vez de reduzi-lo.
  • 2. O que é co-desenho clínico de tecnologia?
    É o processo de planejar, testar e ajustar ferramentas digitais com envolvimento ativo dos profissionais assistenciais e administrativos que as usarão no dia a dia.
  • 3. Como a IA pode aumentar a produtividade de clínicas e consultórios?
    Automatizando tarefas repetitivas (confirmação de consultas, organização de filas, priorização de pacientes de risco), integrando-se ao prontuário e respeitando o tempo e o raciocínio clínico.
  • 4. Quais são os principais riscos da IA e da telemedicina sem governança?
    Erros de triagem, decisões opacas, aumento de desigualdades de acesso, violações de privacidade e investimento em ferramentas que não geram valor assistencial nem econômico.
  • 5. Que passos imediatos um gestor de saúde no Brasil pode dar?
    Mapear o fluxo de trabalho, montar um grupo de co-desenho, testar soluções em piloto, exigir métricas claras de resultado e capacitar a equipe para uso crítico da IA.

Artigo Original: The Perioperative AI Reality Check: Why Hospital Tech Fails Without Clinician Co-Design