As empresas Anthropic, Google, Microsoft e OpenAI anunciaram um investimento de US$ 10 milhões na criação de um fundo de segurança para IA nesta quarta-feira, 25. Batizado como AI Safety Fund, o arcabouço financeiro nasce dentro do Frontier Model Forum, grupo criado pelas empresas de IA para trazer garantia e responsabilidade no uso de modelos de IA.

Com objetivo de auxiliar pesquisas avançadas para criar ferramentas voltadas para a sociedade, e assim aumentar os padrões de segurança dos modelos de IA, o fundo também recebe o apoio de quatro filantropos do setor de tecnologia: Patrick J. McGovern Foundation, David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn.

O fundo terá administração independente do Meridian Institute que colocará as regras para receber as propostas nos próximos meses.

Coincidem com a movimentação os rumores publicados pelo Washington Post nesta quarta-feira, 25, de que o presidente dos Estados Unidos, Joe Biden, deve publicar uma ordem executiva na próxima semana. Ou seja, um primeiro passo para uma regulação ampla no setor.

Vale lembrar, o fórum foi criado em julho deste ano, após as quatro empresas levarem uma primeira ‘chamada’ da Casa Branca em maio deste ano por mais responsabilidade em IA.

Porta-voz da IA

Criado em julho deste ano, o Frontier Model Forum também anunciou a contratação de Chris Meserole como seu diretor executivo. O especialista terá como missão promover a responsabilidade no desenvolvimento, identificar melhores práticas, compartilhar conhecimento com a sociedade e apoiar os esforços de melhoria dos problemas da sociedade com IA. Formado em Harvard, mestre em Yale e PhD em metodologia política e política comparativa pela University of Maryland, Meserole atuava antes como diretor de IA e tecnologias emergentes no Brookings Institute.