IA pode ajudar a identificar risco de violência por parceiro íntimo antes que ele passe despercebido
IA pode ajudar a identificar risco de violência por parceiro íntimo antes que ele passe despercebido
A violência por parceiro íntimo é um dos problemas de saúde mais difíceis de enxergar quando ainda está parcialmente oculto. Muitas vezes, ela não aparece de forma direta na consulta. Surge em pedaços: queixas inespecíficas, ansiedade, lesões recorrentes, faltas a consultas, sofrimento emocional, mudanças de comportamento, medo, silêncio. Para profissionais de saúde, reconhecer esse padrão a tempo nem sempre é simples.
É justamente nesse ponto que a inteligência artificial começa a ganhar espaço como possibilidade. A ideia por trás de uma nova ferramenta anunciada por pesquisadores é usar aprendizado de máquina para identificar pacientes com maior risco de violência por parceiro íntimo antes que esse risco passe despercebido pela avaliação clínica habitual.
O apelo dessa proposta é evidente. Se sistemas de saúde conseguirem perceber mais cedo quem está em situação de vulnerabilidade, talvez possam oferecer acolhimento, apoio e encaminhamento antes que a violência se agrave. Mas, nesse campo, entusiasmo técnico sem cuidado ético seria um erro sério. Em violência interpessoal, prever risco não é a mesma coisa que proteger pessoas.
O que torna essa proposta plausível
A ideia de usar modelos preditivos para risco de violência não surgiu do nada. A literatura fornecida sustenta bem o conceito mais amplo de que aprendizado de máquina e avaliações estruturadas podem ajudar na classificação e previsão de padrões de violência, inclusive em contextos de violência doméstica.
Uma revisão integrativa apontou que a inteligência artificial tem potencial relevante em pesquisas sobre violência doméstica, incluindo classificação, previsão e detecção de padrões com uso de dados clínicos e textuais. Em outras palavras, já existe base teórica e metodológica para imaginar que algoritmos consigam perceber combinações de sinais que um profissional, sozinho, pode deixar passar em um atendimento curto e sob pressão.
Além disso, a literatura mais ampla sobre avaliação de risco de violência há muito sugere que métodos estruturados e atuariais costumam superar o julgamento clínico sem apoio formal. Isso não quer dizer que máquinas “entendam” melhor as pessoas do que profissionais experientes, mas indica que decisões complexas podem se beneficiar de ferramentas capazes de organizar variáveis de forma consistente.
No caso da violência por parceiro íntimo, também já existe uma tradição consolidada de instrumentos estruturados de avaliação de risco. Portanto, a IA não representa uma ruptura absoluta, e sim uma possível extensão de uma lógica que a saúde e outras áreas já utilizam: estratificar risco para orientar atenção.
Por que isso importa na prática
A violência por parceiro íntimo tem efeitos profundos na saúde física e mental. Ela se associa a trauma, dor crônica, depressão, ansiedade, transtorno de estresse pós-traumático, problemas reprodutivos, uso de substâncias, risco aumentado de homicídio e múltiplas consequências sociais e econômicas.
Ainda assim, muitos casos passam despercebidos em serviços de saúde. Nem toda pessoa consegue relatar o que está vivendo. Nem todo profissional tem tempo, treinamento ou contexto para reconhecer sinais sutis. E nem toda consulta oferece um ambiente seguro para perguntas diretas.
É nesse intervalo entre risco real e reconhecimento clínico que ferramentas preditivas parecem mais promissoras. Em tese, um modelo treinado para identificar combinações de sinais associados à violência poderia acionar alertas mais precoces, ajudando equipes a oferecer triagem mais cuidadosa, suporte social, abordagem sensível ao trauma e encaminhamento adequado.
A utilidade, portanto, não está em “descobrir” automaticamente quem sofre violência, mas em reduzir a chance de invisibilidade clínica.
O que a IA pode fazer — e o que ela não pode
Em temas sensíveis, é tentador confundir capacidade estatística com solução assistencial. Esse é o ponto que merece mais cautela.
Um algoritmo pode, no melhor cenário, estimar probabilidade. Ele pode identificar padrões associados a risco mais alto. Pode sinalizar que determinada paciente merece atenção adicional. Mas isso está longe de significar que o sistema melhora segurança, reduz agressões ou produz benefício real por si só.
As referências fornecidas não validam diretamente a ferramenta específica citada pelo NIH. O conjunto de evidências apoia a direção geral da proposta — IA como apoio plausível para previsão de risco em contextos de violência —, mas não demonstra que esse modelo em particular já esteja pronto para uso rotineiro ou que melhore desfechos no mundo real.
Esse detalhe importa muito. Em saúde, acertar uma previsão não é o mesmo que gerar cuidado melhor. Entre identificar risco e proteger alguém há uma cadeia inteira de fatores: treinamento da equipe, sigilo, consentimento, protocolos de resposta, suporte social disponível, ambiente seguro para abordagem e capacidade real de oferecer ajuda sem aumentar o perigo.
O campo minado ético por trás da promessa
Se existe uma área em que tecnologia precisa entrar devagar, é esta.
Ferramentas preditivas para violência por parceiro íntimo levantam preocupações sérias sobre privacidade, vigilância, estigma e viés algorítmico. Um sistema pode errar para mais ou para menos. Ambos os erros importam.
Falsos positivos podem levar a abordagens invasivas, constrangimento, perda de confiança no serviço ou até risco adicional, caso um parceiro abusivo descubra que houve suspeita ou registro sensível. Falsos negativos, por outro lado, podem reforçar uma falsa sensação de segurança e deixar de acionar apoio quando ele seria necessário.
Também há o problema dos dados. Modelos aprendem a partir de padrões presentes em bases históricas, e essas bases podem refletir desigualdades, subnotificação, preconceitos institucionais e diferenças de acesso ao sistema de saúde. Isso significa que um algoritmo pode acabar reproduzindo vieses existentes, penalizando ou invisibilizando certos grupos.
No contexto brasileiro, essa preocupação é ainda mais importante. Violência por parceiro íntimo não se distribui em um vazio social. Ela cruza gênero, raça, renda, território, dependência econômica e acesso desigual a serviços de proteção. Uma ferramenta que ignore essas camadas pode parecer sofisticada no papel e ainda assim ser injusta ou pouco útil na prática.
A implementação é o verdadeiro teste
Se um dia esse tipo de tecnologia for incorporado a serviços de saúde, o elemento decisivo não será apenas o modelo matemático, mas o desenho da resposta clínica.
Uma abordagem responsável precisaria ser, no mínimo, centrada no trauma, protetora da privacidade e cuidadosa com consentimento e confidencialidade. Alertas não poderiam virar gatilhos automáticos de exposição, punição ou medidas sem contexto. Eles teriam de servir como apoio para uma conversa clínica qualificada, conduzida por profissionais treinados e em ambiente seguro.
Isso significa que a IA não deveria substituir escuta, vínculo nem julgamento humano. O papel mais razoável seria o de ferramenta de apoio: um sistema que ajuda a notar risco, enquanto a decisão sobre como abordar a situação permanece nas mãos de equipes preparadas e de protocolos éticos bem definidos.
Sem essa estrutura, a tecnologia corre o risco de fazer o que muita inovação em saúde faz quando é aplicada cedo demais: transformar um problema humano complexo em um alerta bonito no ecrã, mas com pouco impacto prático — ou, pior, com efeitos adversos.
O que a pesquisa realmente acrescenta
Mesmo com todas essas reservas, a pesquisa tem mérito. Ela reforça a ideia de que violência por parceiro íntimo pode ser tratada como uma questão de saúde que merece ferramentas mais refinadas de detecção e resposta, e não apenas como um tema periférico dependente de revelação espontânea.
Isso, por si só, é relevante. Durante muito tempo, sistemas de saúde lidaram com a violência interpessoal de modo reativo: esperavam lesões evidentes, relato direto ou crise aguda. Ferramentas de risco, inclusive com apoio de IA, sugerem uma mudança de postura: tentar identificar vulnerabilidade antes que ela se traduza em dano ainda maior.
Essa mudança é importante porque reconhece algo básico, mas frequentemente ignorado: a violência deixa rastros clínicos e comportamentais antes de se tornar impossível de esconder.
O que ainda falta provar
O passo que ainda não foi dado com clareza é o mais importante de todos: mostrar que um sistema de IA realmente melhora a vida e a segurança das pessoas atendidas.
As evidências fornecidas não demonstram que a previsão algorítmica reduza violência, melhore acesso a proteção, diminua revitimização ou produza melhores desfechos clínicos em cuidados reais. Também não mostram que a ferramenta específica do anúncio funcione com consistência suficiente em cenários diversos, com populações heterogêneas e rotinas clínicas imperfeitas.
Portanto, o enquadramento mais honesto é de promessa credível, mas sensível. Há fundamento para levar essa linha de pesquisa a sério. Ainda não há base para tratá-la como solução pronta.
A conclusão mais equilibrada
O uso de inteligência artificial para prever risco de violência por parceiro íntimo é uma direção de pesquisa plausível e potencialmente importante. A literatura fornecida apoia a ideia de que aprendizado de máquina e avaliação estruturada podem ajudar a reconhecer padrões de risco que nem sempre são captados pelo julgamento clínico isolado.
Mas, nesse caso, precisão preditiva não é sinônimo de benefício ao paciente. Entre um alerta e uma intervenção segura existe um espaço ético enorme, cheio de questões sobre privacidade, viés, trauma, sigilo e possibilidade real de proteção.
O valor dessa tecnologia, se vier a se confirmar, não estará em “adivinhar” violência com aparência de neutralidade matemática. Estará em ajudar serviços de saúde a agir com mais sensibilidade, mais preparação e mais cuidado — sem transformar pessoas vulneráveis em objetos de vigilância. Esse é o verdadeiro teste de qualquer ferramenta desse tipo.