Falar de IA para obstetrícia virou rotina nos congressos, nos grupos de WhatsApp e nas conversas entre colegas médicos. Mas a pergunta que fica é sempre a mesma: dá para confiar? A resposta curta é "depende para quê". Neste artigo, quero compartilhar a forma como tenho recomendado o uso de IA generativa para médicos — em especial obstetras — para que ela seja útil sem virar um risco clínico.

O que é, afinal, essa tal de "IA"?

O nome confunde, então é legal começarmos por aqui. A IA generativa (esta que usamos), na prática, não é realmente inteligente. Ela é um modelo estatístico de linguagem: gera respostas com base na probabilidade de uma palavra ser a mais provável a vir depois da outra, a partir dos conteúdos que ela consumiu em seu treinamento.

Um exemplo bobo: se você fosse uma IA brasileira, e você lesse o início de frase "Oi, tudo", você adicionaria "bem?" ao final da frase - porque "Oi, tudo bem?" é uma expressão muito comum na língua portuguesa.

A questão toda é o que os modelos grandes consumiram durante o treinamento. Os inputs foram, majoritariamente, a internet aberta/livre. Os grandes modelos de linguagem (LLMs), como ChatGPT, Claude e Gemini, foram treinados em cima de textos extraídos da web — o que inclui artigos, sim, mas sobretudo fóruns, blogs e conteúdo sem revisão científica. Isso é amplamente reconhecido pelas próprias desenvolvedoras, em seus relatórios técnicos.

O efeito colateral é importante: se em centenas de fóruns muitas pessoas afirmam algo, esse "algo" tende a pesar mais na resposta do que um único estudo bem desenhado, mas pouco citado online. Em outras palavras: usar uma LLM como fonte de conhecimento clínico se aproxima, mais do que gostaríamos, de "usar fóruns de internet para tomar decisões clínicas".

Existem formas de mitigar parte desse efeito. Mas a grande sacada não é técnica — é mudar a maneira como você pretende usar a IA no seu dia a dia.

Engenharia de prompt: o que importa para o médico

Fala-se muito em "engenharia de prompt", ou seja, na arte de construir bons comandos para a IA. E é um tema legítimo, porque o prompt funciona também como uma restrição: ele delimita o que a IA pode - mas, especialmente, o que não pode fazer ao gerar a resposta.

Para médicos, é essa parte que mais importa. Se você pedir algo muito livre, receberá algo muito aleatório. Mas se você diz, por exemplo, "use apenas artigos científicos indexados e cite as fontes", você ganha um pouco mais de confiabilidade. Não é uma garantia, mas é uma camada relevante de filtro.

Algo curioso, porém, é que ela continuará a gerar o texto com base em probabilidade. Ou seja: pode ser que ela misture diversas frases para gerar algo como resposta, e isso não seja verdade - nem sequer esteja escrito em nenhum lugar.

Entender este ponto é muito importante, porque conviver com essa diferença é parte do uso responsável.

Então, como usar com confiança?

Existe um consenso sobre o que a IA pode fazer com segurança, e ele é bem básico: a IA é impecável em linguagem natural. Ou seja, em entender o que você quer, e saber ler textos, documentos e imagens. Ela não é boa em pensar, nem em interpretar os textos — mas ela é ótima em "interpretar o idioma".

Por isso, o melhor enquadramento é encarar a IA como um assistente júnior, e não como um colega de profissão. Um júnior não discute condutas, não fecha diagnósticos e não recebe a paciente sozinho. Mas ele organiza informação, transcreve, formata e entrega dados prontos para você decidir.

Traduzindo para a prática:

  • Você não deve discutir um caso clínico com uma LLM como o ChatGPT ou o Claude.
  • Você não deve pedir um diagnóstico.
  • Você pode pedir para a IA ler documentos e extrair os dados — mas não interpretar livremente os resultados.
  • Você pode pedir um comparativo entre duas condições, exigindo que ela apresente as fontes.

É uma régua simples e que evita boa parte dos problemas. Quando o uso é "interpretar formato", a IA brilha. Quando o uso exige raciocínio clínico, a régua precisa ser outra: a sua.

Como a IA pode me ajudar no dia a dia da obstetrícia?

Aqui vai um mapa, do mais seguro ao mais delicado:

Leitura e estruturação de exames: perfeita

A partir de 2025, os modelos de IA atingiram uma capacidade muito boa de leitura e transcrição de exames. Extrair resultados de um exame de laboratório em PDF é, hoje, uma tarefa que depende basicamente de bom entendimento de idioma e de formato — exatamente o que a IA faz melhor. Para esse uso, é uma ferramenta excelente.

Transcrição de consultas: ótima

A IA é muito precisa em entender uma conversa e extrair as informações relevantes. Pode haver, eventualmente, um problema de contexto — por exemplo, alocar uma fala do médico no histórico da paciente, ou misturar histórias entre pacientes próximas. Mas, no geral, a transcrição funciona muito bem e poupa um tempo importante de digitação.

Diagnóstico de exames ou queixas: muito cuidado

Aqui mora o risco. Se em algum fórum do passado centenas de pessoas descreveram sintomas de uma depressão como "preguiça aguda", a IA pode oferecer esse caminho como hipótese — porque foi treinada com esses textos. O modelo não distingue, na origem, fórum leigo de diretriz clínica. Diagnóstico é território humano, com método, exame físico e contexto que a máquina não tem.

Conversa com pacientes: depende do que você pede

Para tarefas lógicas, como agendar uma consulta, a IA funciona muito bem. Ela transcreve a solicitação como um comando que resulta em "0 ou 1" e executa as ações esperadas. Como assistente médico em conversas clínicas, o contexto é muito mais complexo. Imagine, por exemplo, uma solicitação de renovação de receita: uma IA mal calibrada pode ser facilmente induzida ao erro, e o impacto disso é direto sobre a paciente.

Conclusão

A IA não é mágica nem é o fim do julgamento clínico. Ela é uma excelente ferramenta de linguagem — leitora de documentos, organizadora de informação, transcritora de conversas. Quando você a coloca nesse papel, ela libera tempo e melhora o seu fluxo. Quando você a coloca como colega de profissão, ela tropeça. A boa notícia é que essa fronteira é clara e está, em grande medida, sob o seu controle.

O Nattal usa IA com responsabilidade

No Nattal, usamos a inteligência artificial exatamente nesse enquadramento: leitura de exames, preenchimento estruturado do cartão de pré-natal digital e transcrição de consultas — sempre devolvendo a decisão clínica para você. Crie sua conta e veja na prática.

Criar conta gratuita