IA, misoginia algorítmica e os limites do consentimento
Edição do mês
Usuário do X (antigo Twitter) faz com que o Grok, assistente de IA da plataforma, modifique a foto real de uma celebridade. Ele ordena que o Grok gere imagens dela vestindo um biquíni de suásticas, usando um boné MAGA e fazendo uma saudação nazista (Reprodução/X.Com)
No Natal de 2025, enquanto se repetiam os rituais coletivos de fim de ano, uma vertigem algorítmica redesenhava o debate sobre violência contra as mulheres no ambiente digital. Naquela semana, usuários da rede social X – antigo Twitter – descobriram que o Grok – assistente de inteligência artificial desenvolvido pelo xAI – obedecia docilmente a um comando simples: remover as roupas de qualquer pessoa em uma fotografia. Em poucas horas, o dilúvio. Mulheres foram despidas por algoritmos. Não houve invasão de dispositivos, roubo de senhas, utilização de programas complexos de edição ou mesmo traição de um ex-parceiro. Bastou um prompt, e uma plataforma disposta a chamar isso de “produto”.
O acontecido não foi inventado pelo Grok nem é monopólio do chatbot de inteligência artificial de Elon Musk. Naquele momento, a plataforma tornou o mecanismo mais acessível, instantâneo e socialmente legível, popularizando a nudez fabricada digitalmente. Essas ferramentas já têm nome: nudify, aplicativos capazes de “despir” corpos a partir de imagens comuns por meio da inteligência artificial, deslocando de forma radical os termos do consentimento, da autoria e da própria ideia de exposição.
Não se trata dos chamados “vazamentos de nudes” nem do que se convencionou chamar, não sem críticas, de “pornografia de vingança”, que marcaram os debates sobre exposição de imagens íntimas de mulheres na década passada. Aqui não há produção prévia, envio ou confiança a ser traída.
A exposição íntima de mulheres antecede em mui
Assine a Revista Cult e
tenha acesso a conteúdos exclusivos
Assinar »





