A LivePerson, companhia global de plataforma conversacional, deve lançar, até o fim de março, uma atualização que introduz na sua Conversational Cloud tecnologias de inteligência artificial da OpenAI, criadora do ChatGPT, incluindo a Generative Pre-Training Transformer 3. O objetivo é desenvolver um sistema que, essencialmente, permita a empresas criarem os seus próprios grandes modelos de linguagem (LLM, na sigla inglês) para construção de chatbots.

Isso é possível alimentando a plataforma com conteúdos internos, como documentos ou sites. Com essas informações, aliadas ao conhecimento geral da IA, o robô consegue rapidamente ser configurado para dar respostas detalhadas no atendimento aos consumidores. Dessa forma, a companhia tem mais controle sobre o seu chatbot, que se baseia no seu próprio modelo de linguagem.

Em demonstração feita durante evento da LivePerson, nesta quinta-feira, 9, Americo Talarico, consultor de vendas da companhia na América Latina, mostrou que, apenas alimentando a plataforma com as informações sobre um cruzeiro, por exemplo, o chatbot da companhia marítima pode responder com precisão sobre as atividade voltadas às crianças e todas as dúvidas relacionadas, com uma linguagem natural. Se o interlocutor pede um conselho ao robô sobre tirar férias ou não, ele responde como o ChatGPT responderia.

“Muito gira em torno dos dados. Muitas das conversas que tivemos na Europa, na semana passada, [no Mobile World Congress], foram sobre bases de conhecimento. Como colocamos esses dados em um grande modelo de linguagem? Essa é realmente a chave para nós, como uma companhia de nível empresarial. Estamos construindo uma interface de usuário de controle que permitirá que as marcas nos forneçam os dados de diferentes bases de conhecimento, colocando-as em um grande modelo de linguagem especificamente para essa marca”, contou Adam Canter, SVP da LivePerson nas Americas.

Para que a plataforma se adeque a padrões de segurança e confiabilidade, evitando as chamadas “alucinações” pelas quais robôs como o ChatGPT têm passado, dando respostas consideradas absurdas ou erradas, é preciso que as pessoas revisem as perguntas e respostas que passam pelos chats.

Atualmente, na Conversational Cloud, são feitas 34 bilhões de chamadas de API por mês e 1 bilhão de interações conversacionais por dia. Logam nela 300 mil agentes diariamente, do mundo inteiro, que trabalham em 18 mil companhias, sendo 80 no Brasil. Elas podem avaliar com um sinal positivo ou negativo a qualidade do conteúdo, ajudando a treinar o chatbot, assim como a própria OpenAI faz na sua interface conversacional. “O feedback humano será fundamental para nós quando começarmos, porque também começamos a escalar. Isso vai acontecer rapidamente”, disse Canter.

Outros recursos de IA chegam com a atualização. Um deles recomenda ações que o agente pode tomar para solucionar o atendimento, com base em dados, como o histórico do cliente. Cabe a ele decidir segui-las ou não. É como se a IA fosse um ajudante, que orienta o agente. Além disso, antes de passar a conversa para a pessoa, o chatbot faz um resumo do que foi conversado até então, para contextualizá-la melhor sobre o atendimento.