O Centro de Inteligência Artificial e Política Digital (CAIDP) apresentou uma queixa, nesta quinta-feira, 30, à Comissão Federal de Comércio (FTC), nos Estados Unidos, contra a OpenAI, alegando que o recém-lançado GPT-4 viola a lei federal americana de proteção ao consumidor. A organização de pesquisa independente sem fins lucrativos pede que a companhia seja investigada, assim como a suspensão do lançamento de novas atualizações do seu modelo de linguagem, até que ele se adeque às orientações da FTC em relação a produtos de inteligência artificial (IA).

O CAIDP levantou questões críticas sobre o impacto do GPT-4 na proteção do consumidor, proteção de dados e privacidade, e segurança pública, afirmando que o modelo de linguagem é “tendencioso e enganoso”, falhando em atender aos padrões de IA da FTC. Entre os requisitos, a comissão pede que uma IA seja “transparente, explicável, justa e empiricamente sólida, ao mesmo tempo em que promove a responsabilidade”.

A organização pede para que a FTC determine se a empresa cumpriu as orientações sobre IA emitidas pela agência federal há cerca de uma semana. Nela, a comissão afirma que medidas de dissuasão de uso indevido da IA devem ser recursos integrados duráveis e não apenas correções de bugs ou recursos opcionais que terceiros podem minar através de modificação ou remoção.

Marc Rotenberg, presidente do CAIDP, está entre os signatários de carta pública, do Future of Life Institute, divulgada na última quarta-feira, 29, pedindo uma pausa no treinamento de IAs mais avançadas que o GPT-4 por cerca de seis meses. O documento submetido à FTC faz menção direta à carta, ressaltando que ambas têm o mesmo foco – suspender, pelo menos por ora, a implantação de novos grandes modelos de linguagem (LLMs).

A queixa aponta para usos indevidos do GPT-4, que é capaz de produzir códigos maliciosos e pode ser utilizado para cometer crimes. O documento ressalta que dados de treinamentos tendenciosos podem resultar em estereótipos embutidos ou vieses injustos de raça e gênero. Também aponta falhas de privacidade significativas com a interface do produto da OpenAI, como o bug recente que expôs históricos do ChatGPT e dados sensíveis dos usuários.

Como uma forma de mitigar futuros problemas, o grupo exige que a OpenAI estabeleça uma maneira de avaliar de forma independente os produtos GPT antes de serem lançados. O CAIDP também quer que a FTC crie um sistema público de relatórios de incidentes para o GPT-4, como seus sistemas de relatórios de fraudes contra consumidores. Além disso, pede que a agência apresente regulamentação sobre o assunto, a fim de criar padrões para produtos de IA generativa.