A Comissão Federal do Comércio (FTC, na sigla em inglês) dos Estados Unidos emitiu ordens a sete empresas, entre elas Alphabet, Meta, Snap, OpenAI e xAI, para entender como seus chatbots desenvolvidos por inteligência artificial generativa podem afetar negativamente crianças e adolescentes.
Para a agência federal, os assistentes virtuais podem simular comunicação humana e relações interpessoais com os usuários e questiona quais medidas as companhias tomaram para “avaliar a segurança desses chatbot quando atuam como companheiros”, diz o comunicado. A matéria saiu na CNBC.
A FTC busca dados sobre:
– como as empresas monetizam o engajamento dos usuários;
– desenvolvem e aprovam personagens;
– utilizam ou compartilham informações pessoais;
– monitoram e aplicam o cumprimento das regras e termos de serviço;
– e mitigam impactos negativos.
Character.AI e Instagram também foram citados no comunicado.
A matéria lembrou que Elon Musk anunciou em julho um recurso de “Companions” para usuários que pagam para assinar o aplicativo de chatbot Grok da xAI. Em abril, o CEO da Meta, Mark Zuckerberg, disse que as pessoas vão querer uma IA personalizada que as compreenda.