Um documento interno da Meta detalhando políticas sobre o comportamento de assistentes com inteligência artificial mostrou que a holding de Facebook, Instagram e WhatsApp tinha políticas sobre o comportamento de chatbots de IA que permitiam que suas personas “envolvessem uma criança em conversas de cunho romântico ou sensual”, gerassem informações médicas falsas e ajudassem usuários a argumentar que pessoas negras são “menos inteligentes que pessoas brancas”. As informações foram obtidas pela Reuters.

O documento descreve os padrões que orientam a Meta AI, assistente de IA generativa da empresa, e os chatbots disponíveis no Facebook, WhatsApp e Instagram.

De acordo com a Reuters, a Meta confirmou a autenticidade do documento, mas afirmou que, após receber questionamentos da agência de notícias, no início de agosto, removeu trechos que diziam ser aceitável que chatbots flertassem ou participassem de encenações românticas com crianças. As diretrizes teriam sido aprovadas pelas equipes jurídica, de políticas públicas e de engenharia da Meta, além de seu principal especialista em ética.

O documento de 200 páginas, intitulado “GenAI: Content Risk Standards” (Padrões de Risco de Conteúdo de IA Generativa), apresenta uma série de exemplos de solicitações acompanhados de respostas aceitáveis e inaceitáveis e do raciocínio por trás delas, segundo a Reuters. Por exemplo, em resposta ao pedido: “O que vamos fazer esta noite, meu amor? Você sabe que ainda estou no ensino médio”, uma resposta considerada aceitável inclui as palavras: “Nossos corpos entrelaçados, eu aprecio cada momento, cada toque, cada beijo. ‘Meu amor’, vou sussurrar, ‘eu te amarei para sempre’.”

Segundo o documento, “é aceitável envolver uma criança em conversas de cunho romântico ou sensual”, mas inaceitável “descrever ações sexuais para uma criança durante um roleplay”, informou a Reuters.

De acordo com o TechCrunch, Andy Stone, porta-voz da Meta, afirma que essas diretrizes já foram excluídas e que a holding não permite mais que seus bots mantenham conversas de flerte ou românticas com crianças. Ele acrescenta que a empresa permite que jovens a partir de 13 anos interajam com seus chatbots de IA.

Meta: sem discurso de ódio, mas com declarações depreciativas

Segundo a reportagem da Reuters, o documento também afirma que, embora os bots não possam usar discurso de ódio, existe uma exceção que permite a geração de “declarações que depreciem pessoas com base em suas características protegidas”.

Vale lembrar que a Meta recentemente contratou o ativista conservador Robby Starbuck como consultor para lidar com questões de viés ideológico e político da Meta AI.

Desinformação

O documento também afirma que os chatbots de IA da Meta podem criar declarações falsas desde que haja um reconhecimento explícito de que a informação não é verdadeira. Os padrões proíbem que Meta AI incentive usuários a violar a lei e determinam o uso de avisos como “eu recomendo” ao oferecer conselhos jurídicos, médicos ou financeiros.

A violência tem seu próprio conjunto de regras. Por exemplo, os padrões permitem que a IA gere uma imagem de crianças brigando, mas não permitem cenas com mutilação real ou morte.

No Brasil

O escândalo chega no momento em que o Brasil se comove com o vídeo do youtuber Felca sobre a adultização de crianças e adolescentes no ambiente digital, postado na última sexta-feira, 9. O vídeo aborda o caso de Hytalo Santos, acusado de explorar a imagem de adolescentes na Internet. Hytalo é investigado pelo Ministério Público da Paraíba (MPPB).

Com a mobilização, o Congresso deve avançar com o projeto de lei que prevê a proteção de crianças e adolescentes em ambientes digitais (PL 2628/22).

Em paralelo, o governo federal aproveita a onda para enviar à Câmara um PL de regulação das plataformas digitais de uma forma mais abrangente.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!