IA pode ajudar hospitais a identificar antes mulheres em risco de violência pelo parceiro
IA pode ajudar hospitais a identificar antes mulheres em risco de violência pelo parceiro
A violência por parceiro íntimo costuma deixar marcas muito antes de ser nomeada. Elas podem aparecer em consultas repetidas, sintomas vagos, crises de ansiedade, dores crônicas, faltas ao trabalho, insônia, uso problemático de substâncias ou idas frequentes ao pronto-socorro. Ainda assim, muitos casos passam despercebidos no sistema de saúde.
É nesse ponto que uma nova frente de pesquisa começa a chamar atenção: o uso de inteligência artificial para tentar reconhecer, mais cedo, quais pacientes podem estar em maior risco de sofrer violência dentro de casa. A proposta é ambiciosa. Em vez de depender apenas de sinais percebidos por profissionais ou de relatos espontâneos — que muitas vezes não acontecem por medo, vergonha ou falta de segurança — algoritmos treinados com grandes volumes de dados poderiam encontrar padrões invisíveis a olho nu.
A ideia parece promissora, mas exige cuidado redobrado. Quando o assunto é violência por parceiro íntimo, prever risco não é o mesmo que proteger alguém. Entre um modelo estatístico com bom desempenho e uma paciente mais segura, existe um caminho delicado que passa por ética, privacidade, treinamento clínico e prevenção de danos.
O que esse avanço realmente sugere
As pesquisas reunidas nas referências apontam que a inteligência artificial já vem sendo estudada para diferentes usos no campo da violência doméstica e da violência por parceiro íntimo. Isso inclui modelos de predição de risco, sistemas capazes de analisar textos clínicos ou digitais para detectar sinais de abuso, ferramentas forenses e até chatbots de apoio.
Uma revisão sistemática recente encontrou resultados animadores em desempenho discriminativo — isto é, na capacidade de separar grupos com maior e menor probabilidade de risco com base nos dados usados no treinamento. Outra revisão integrativa concluiu que o aprendizado de máquina tem potencial importante para classificação, previsão e identificação de padrões, sobretudo quando trabalha com registros clínicos, dados administrativos e material textual.
Em termos práticos, isso significa que a IA pode funcionar como um radar adicional. Ela não “descobre a verdade” sobre a vida de uma paciente, mas pode sinalizar que certos históricos, combinações de sintomas, padrões de atendimento ou registros anteriores merecem atenção clínica mais cuidadosa.
Isso é relevante porque a violência por parceiro íntimo nem sempre se apresenta de forma direta. Muitas vítimas não chegam ao consultório dizendo o que está acontecendo. Às vezes, elas procuram ajuda por depressão, dor, lesões recorrentes, problemas ginecológicos, uso de álcool ou crises de pânico. Um sistema treinado para reconhecer associações complexas pode, em tese, aumentar as chances de que profissionais façam perguntas mais seguras e oportunas.
Por que isso importa agora
A saúde tem um papel central na identificação da violência. Hospitais, unidades básicas, maternidades e serviços de urgência frequentemente são alguns dos poucos lugares onde a vítima tem contato com alguém de fora do círculo do agressor. Quando essa oportunidade é perdida, o sistema deixa passar uma chance real de acolhimento.
Por isso, a promessa da IA não é trivial. Se bem usada, ela pode ajudar a reduzir um problema histórico: a subdetecção. A violência por parceiro íntimo é amplamente subnotificada e, em muitos casos, só aparece quando o risco já escalou. Antecipar esse reconhecimento pode permitir abordagens menos tardias, mais discretas e mais conectadas à rede de apoio.
Além disso, a medicina já convive há anos com ferramentas de estratificação de risco em outras áreas, como doenças cardiovasculares, sepse e readmissão hospitalar. A lógica de usar dados para apoiar decisões clínicas não é nova. O que muda, aqui, é a sensibilidade extrema do tema. Não se trata apenas de prever um evento médico, mas de lidar com segurança pessoal, intimidade, relações abusivas e vulnerabilidade social.
O que as evidências sustentam — e o que ainda não sustentam
O conjunto de evidências fornecido apoia a noção de que a IA aplicada à predição ou detecção de violência por parceiro íntimo é uma direção de pesquisa plausível e cada vez mais consistente. Também reforça uma ideia antiga da literatura sobre avaliação de risco: métodos atuariais e orientados por dados podem superar o julgamento clínico isolado em certas tarefas de previsão.
Mas é aqui que o entusiasmo precisa ganhar contexto. Um algoritmo pode apresentar boa acurácia estatística e, ainda assim, não melhorar a vida real das pacientes. Isso porque performance preditiva não equivale automaticamente a benefício clínico.
A pergunta decisiva não é apenas “o modelo acerta?”. A pergunta decisiva é: o que acontece depois que ele sinaliza risco? Existe uma abordagem segura? Há privacidade? O profissional foi treinado para conversar sem colocar a paciente em perigo? O serviço sabe para onde encaminhar? O sistema evita revitimização? Há proteção contra uso indevido dessas informações?
Sem essas respostas, a tecnologia corre o risco de parecer sofisticada no artigo científico e falhar no mundo real.
Os riscos éticos são parte da notícia, não um detalhe
Talvez em poucas áreas da saúde a palavra “cuidado” seja tão literal quanto aqui. Uma ferramenta de IA para prever risco de violência pode ajudar — mas também pode ferir.
O primeiro risco é a privacidade. Dados sobre saúde, histórico familiar, comportamento e anotações clínicas são profundamente sensíveis. Se informações desse tipo forem acessadas por pessoas erradas, compartilhadas sem proteção adequada ou usadas fora do contexto assistencial, o dano pode ser enorme.
O segundo risco é a vigilância. Uma paciente não pode ser transformada em alvo de monitoramento disfarçado de cuidado. Ferramentas desse tipo precisam servir ao acolhimento e à proteção, não à suspeição permanente.
O terceiro risco é o viés algorítmico. Se o modelo for treinado em bases enviesadas, ele pode errar mais em determinados grupos, reforçar desigualdades, estigmatizar mulheres pobres, negras, imigrantes ou pacientes com transtornos mentais, por exemplo. Em saúde, esse tipo de distorção não é apenas um problema técnico; é um problema moral.
Há ainda o peso dos falsos positivos e falsos negativos. Um falso positivo pode gerar constrangimento, desconfiança ou uma abordagem inadequada. Um falso negativo pode deixar sem apoio alguém que realmente corre risco. Em ambos os casos, o custo humano pode ser alto.
Como isso deveria funcionar na prática
Se ferramentas assim forem incorporadas aos serviços de saúde, o melhor cenário não é o de uma máquina “decidindo” algo sobre a paciente. O cenário responsável é outro: a IA como apoio discreto a equipes treinadas, dentro de protocolos traumainformados e com salvaguardas rigorosas.
Na prática, isso significa algumas coisas. Primeiro, o alerta do algoritmo não pode virar rótulo. Ele deve servir como pista clínica, não como sentença. Segundo, qualquer abordagem precisa ser feita em ambiente seguro, privado e sem a presença do possível agressor. Terceiro, profissionais precisam saber perguntar sem pressionar, sem culpar e sem expor.
Também é essencial que haja rede de resposta. Detectar risco sem oferecer acolhimento, orientação, proteção e encaminhamento adequado pode piorar a situação. Tecnologia nenhuma compensa a ausência de fluxo assistencial bem desenhado.
No Brasil, esse debate tem implicações importantes. O país convive com altos índices de violência contra a mulher, redes de atendimento ainda desiguais entre regiões e serviços de saúde frequentemente sobrecarregados. Isso torna a inovação atraente, mas também eleva o risco de adoção apressada. Ferramentas importadas de outros contextos podem não funcionar bem aqui sem adaptação social, cultural e institucional.
O que pacientes e profissionais podem tirar dessa discussão
Para pacientes, a principal mensagem é que a IA pode vir a ampliar a capacidade do sistema de perceber sinais de risco, mas isso não substitui escuta humana, sigilo e suporte real. A tecnologia, no melhor dos casos, abre uma porta; quem faz a diferença é o cuidado oferecido depois.
Para profissionais de saúde, o avanço reforça uma tendência mais ampla: algoritmos podem ajudar a enxergar padrões que passariam batido, especialmente em temas complexos e multifatoriais. Mas, em violência por parceiro íntimo, a competência técnica precisa andar junto com sensibilidade clínica e responsabilidade ética.
A conclusão mais importante
A notícia não é que a inteligência artificial “vai resolver” a violência por parceiro íntimo. Não vai. A notícia é que ela pode se tornar uma aliada relevante para identificar risco mais cedo em um problema que costuma permanecer invisível até demais.
Isso já seria um avanço importante. Mas só será um avanço de verdade se o foco não ficar restrito ao algoritmo. Em um tema tão delicado, o valor da inovação depende menos do brilho tecnológico e mais da forma como ela é implementada: com proteção de dados, atenção ao viés, protocolos seguros, escuta qualificada e compromisso genuíno com a autonomia e a segurança das pacientes.
Em outras palavras, a IA pode até ajudar a acender a luz. Mas o que protege mesmo é o que o sistema de saúde faz depois que enxerga o problema.