Entre os dias 29 de dezembro e 8 de janeiro, o Grok, inteligência artificial integrada à rede social X, gerou mais de 3 milhões de imagens sexualizadas, entre elas 23 mil de crianças. A profusão ocorreu após o lançamento de um novo recurso de edição de imagens no X. Os números são do CCDH (Center for Countering Digital Hate), organização norte-americana que expõe produtores de ódio e desinformação na internet.
O recurso de geração de imagens explodiu em popularidade logo após Elon Musk anunciar a funcionalidade que permite aos usuários do X usar o Grok para editar imagens postadas na plataforma com um clique. O recurso foi restrito a usuários pagos em 9 de janeiro, em resposta à condenação generalizada de seu uso para gerar imagens sexualizadas, com restrições técnicas adicionais para impedir a edição de pessoas para despi-las adicionadas em 14 de janeiro.
O CCDH não analisou os prompts usados para criar as imagens. E os insights não fornecem uma avaliação de quantas imagens foram criadas sem o consentimento das pessoas retratadas ou se alteraram imagens que já eram sexualizadas.
As estimativas foram calculadas analisando uma amostra aleatória de 20 mil imagens de um total de 4,6 milhões produzidas pelo recurso de geração de imagens do Grok durante o período estudado, permitindo que os pesquisadores estabelecessem estimativas sobre a prevalência mais ampla de tais imagens no X.
As imagens foram definidas como sexualizadas se contivessem representações fotorrealistas de uma pessoa em posições, ângulos ou situações sexuais; uma pessoa em roupas íntimas, trajes de banho ou roupas reveladoras semelhantes; ou imagens retratando fluidos sexuais.

