A Bloomberg apresentou oficialmente o seu projeto de inteligência artificial generativa em larga escala para o setor financeiro nesta segunda-feira, 3. Batizado como BloombergGPT, o modelo de linguagem usa 50 bilhões de parâmetros, o maior set de dados já usado na história da companhia.

Baseado em processamento de linguagem natural (NLP) de código aberto Bloom, o modelo foi treinado por engenheiros e cientistas da Bloomberg e da John Hopkins University. Vale dizer que o Bloom entra no lugar de outros modelos de larga escala como o ChatGPT da OpenAI, LlaMA da Meta ou LaMDA do Google.

Agrega-se ao NLP uma base de informações (tokens) públicas e dados de 40 anos das plataformas da Bloomberg (apenas em inglês). Entre os dados estão artigos Wikipedia, resumos do YouTube, notícias, fatos relevantes e IPOs. Ao todo, 700 bilhões foram extraídos para treinar a IA generativa.

Essas informações ainda foram tokenizadas para melhorar a compreensão dos vocabulários das bases de dados.

Artigo e achados

Em artigo científico publicado no Arkiv, a equipe informou que este modelo contribui para “o contínuo diálogo” e para o treinamento de modelos próprios: “Nossa estratégia de treino ao misturar dados proprietários e gerais resulta em um modelo com um balanço nos dois lados”, diz o documento que circulou nas redes sociais no último fim de semana.

O time que desenvolveu o BloombergGPT ainda destacou três diferenciais em sua plataforma:

  1. Uma base de dados bem acurada;
  2. A escolha única em tokenizar esses dados;
  3. Uma arquitetura bem atualizada.

“Vamos continuar desenvolvendo aplicações financeiras como BloombergGPT para explorar os benefícios dessas modelagens escolhidas no futuro”, finaliza a equipe em seu artigo.