A Comissão Federal do Comércio (FTC, na sigla em inglês) dos Estados Unidos emitiu ordens a sete empresas, entre elas Alphabet, Meta, Snap, OpenAI e xAI, para entender como seus chatbots desenvolvidos por inteligência artificial generativa podem afetar negativamente crianças e adolescentes.

Para a agência federal, os assistentes virtuais podem simular comunicação humana e relações interpessoais com os usuários e questiona quais medidas as companhias tomaram para “avaliar a segurança desses chatbot quando atuam como companheiros”, diz o comunicado. A matéria saiu na CNBC.

A FTC busca dados sobre:

– como as empresas monetizam o engajamento dos usuários;

– desenvolvem e aprovam personagens;

– utilizam ou compartilham informações pessoais;

– monitoram e aplicam o cumprimento das regras e termos de serviço;

– e mitigam impactos negativos.

Character.AI e Instagram também foram citados no comunicado.

A matéria lembrou que Elon Musk anunciou em julho um recurso de “Companions” para usuários que pagam para assinar o aplicativo de chatbot Grok da xAI. Em abril, o CEO da Meta, Mark Zuckerberg, disse que as pessoas vão querer uma IA personalizada que as compreenda.

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!