Ilustração: La Mandarina Dibujos

Não se fala em outra coisa na comunidade de inteligência artificial e robôs de conversação. O tema do momento são as ferramentas de IA generativa, aquelas capazes de gerar conteúdo próprio, como textos, imagens, vídeos, áudios, músicas etc. Trata-se de um novo capítulo na história do desenvolvimento da inteligência artificial com possibilidade de impactos profundos na sociedade e implicações éticas que precisam ser discutidas. Um dos principais expoentes dessa onda atende pelo nome de ChatGPT, uma ferramenta de compreensão e geração de texto criada pela OpenAI capaz de manter uma conversa com a fluidez de um ser humano, o que deixa os outros robôs de conversação parecendo… robôs. 

Mobile Time conversou com nove representantes de empresas que atuam no mercado brasileiro de chatbots para entender a transformação que está em curso. Primeiro, é importante entender o que diferencia o ChatGPT dos bots atuais. Os robôs de conversação empregados hoje, especialmente em funções de atendimento, vendas e captura de leads, são construídos com modelos de processamento de linguagem natural (PLN), sob supervisão e treinamento de especialistas humanos, para serem capazes de entender, com a maior precisão possível, a intenção do cliente a partir do que este lhes pede por escrito ou por voz. Por trás, estão motores de PLN, muitas vezes fornecidos por big techs, como IBM, Google, Microsoft e Amazon. A partir da intenção compreendida, o robô entrega uma resposta, cujo tom e estilo foram previamente aprovados pela companhia que o construiu, e cujos dados são puxados de um FAQ ou da integração com sistemas corporativos, como ERP, CRM, billing etc. Ou seja, são respostas cujo conteúdo e estilo são extremamente controlados. Entre as principais dificuldades dos robôs de conversação atuais estão: 1) identificar uma ou mais intenções a partir de perguntas longas ou confusas do consumidor; 2) compreensão do contexto; 3) falta de memória de conversas passadas ou dentro da mesma sessão, o que atrapalha a fluidez da conversa.

O ChatGPT, por sua vez, foi construído com um modelo diferente, chamado de “Generative Pre-trained Transformer”, a partir de uma imensa base de dados e aperfeiçoado com a técnica de “aprendizado de reforço”. A cada resposta fornecida pelo robô, o ser humano indica se ela está correta ou incorreta, o que ajuda a melhorar a precisão do modelo. Com essa tecnologia, o ChatGPT consegue compreender múltiplas intenções por trás de textos longos. E, o mais importante, suas respostas são criadas na hora, com base no seu conhecimento prévio. Além disso, memoriza a conversa com o usuário e consegue relacionar sua fala com respostas anteriores. O ChatGPT está na terceira versão do seu modelo (GPT-3) e em breve adotará a quarta (GPT-4), que promete ser melhor ainda. Cabe destacar que existem outras ferramentas de IA generativa de texto igualmente construídas com grandes bases de dados, como Bloom e Alpa, mas que ainda não conquistaram a mesma atenção daquela criada pela OpenAI.

Zenvia

Cássio Bobsin, fundador e CEO da Zenvia. Foto: divulgação

A performance do ChatGPT até o momento impressiona não apenas o público leigo em geral, mas também os especialistas em IA. “Chegamos a um ponto em que você não sabe se está falando com um robô”, comenta Daniel Lázaro, diretor de data analytics da Accenture no Brasil. “Eu me envolvo com IA desde a faculdade, quando ainda era tudo muito rudimentar. Ver aonde isso chegou é surpreendente. A capacidade de sequenciamento e encadeamento das palavras, das frases e o contexto que se constrói na conversa com o ChatGPT são impressionantes”, acrescenta Cássio Bobsin, fundador e CEO da Zenvia.

Aberto para uso gratuito do público no fim do ano passado, o ChatGPT vem sendo experimentado para as mais diferentes aplicações, fazendo as vezes de programador, consultor de negócios, psicólogo, redator ou mesmo poeta – sim, ele é capaz de criar poemas com qualquer tema proposto. Até resumos de artigos científicos foram produzidos com tamanha qualidade pelo ChatGPT que cientistas não foram capazes de distingui-los de outros feitos por humanos, aponta a revista Nature. Em Nova Iorque, o departamento municipal de educação proibiu o uso de ChatGPT nos computadores escolares porque os estudantes estavam utilizando-o para responder aos trabalhos.

No Brasil, a Take Blip experimentou o uso do ChatGPT em uma campanha para a criação de mensagens natalinas, em dezembro de 2022. A Accenture vem testando a tecnologia para responder a pedidos médicos em um piloto com um laboratório de exames de imagem. E a Botmaker recentemente incorporou a solução de IA generativa do ChatGPT em sua plataforma para auxiliar atendentes humanos com a produção de respostas em chats. No jornalismo, Mobile Time publicou duas entrevistas com o robô do ChatGPT na semana passada.

Impacto no mercado de bots

Os especialistas não têm dúvidas de que ferramentas de IA generativa de texto como o ChatGPT vão transformar o mercado de robôs de conversação. A questão é como isso acontecerá e com qual modelo de negócios. 

Caio Calado, consultor em design conversacional. Foto: divulgação

Primeiramente, essas ferramentas podem servir para ajudar os profissionais que atuam no desenvolvimento dos chatbots tradicionais, como curadores de bots e designers conversacionais. O ChatGPT pode ajudar no processo de escrita de respostas de um bot, ou pensar em exemplos de perguntas, o que contribui na curadoria de conhecimento para a identificação de uma intenção ou de uma entidade, cita Caio Calado, consultor em design conversacional e colunista do Mobile Time.

Como tem alta precisão na compreensão de perguntas longas, o ChatGPT pode reduzir a necessidade de transbordo de solicitações para atendentes humanos, imagina Yuri Fiaschi, vice-presidente de projetos estratégicos e gerenciamento de negócios da Infobip. Outra possível utilidade seria a de auxiliar os atendentes humanos durante um chat, sugerindo as respostas para as perguntas dos clientes, como está sendo feito pela Botmaker.

O que talvez demore um pouco mais é a adoção de IA generativa para o envio de respostas sem a supervisão de um humano. Para tanto, é preciso que haja um controle maior sobre a base de conhecimento e sobre o treinamento do modelo, para garantir a qualidade das respostas. Quem saiu na frente nesse sentido foi o Gupshup, que anunciou uma ferramenta que usa o ChatGPT com esse propósito, a Auto Bot Builder.

A tendência é de que, no futuro, os bots de atendimento combinem o modelo atual, com regras mais restritivas para a formulação de respostas, e IA generativa, dependendo da situação. “Em vez de a companhia aprovar previamente textos estáticos para respostas, vai aprovar modelos linguísticos combinados com dados para gerar linguagem natural única”, explica Jordi Torras, fundador e CIO da Inbenta, que também vem testando modelos de IA generativa em seu laboratório. 

Seja como for, um impacto esperado pelos especialistas é que a popularização do ChatGPT vai elevar o nível de exigência do consumidor ao conversar com um robô. Ou seja, depois de experimentar a conversa com o ChatGPT, vai querer a mesma fluidez e qualidade quando for atendido por outro chatbot.

“É a chamada expectativa cruzada, ou transferência de expectativa. Aconteceu a mesma coisa quando Netflix e Uber chegaram”, lembra Bobsin, da Zenvia. Calado concorda: ”As empresas e os fornecedores de software vão ter que investir ainda mais em educação do mercado para lidar com essa expectativa”.

No campo profissional, novas habilidades são requeridas com o advento da IA generativa, levando ao surgimento de novas profissões. Uma delas é a do “prompt engineer”, pessoa especializada em se comunicar com um sistema de IA generativa para obter o melhor resultado desejado. Já começam a surgir tutoriais na Internet ensinando diversos truques nesse sentido, especialmente para lidar com ferramentas de IA generativa de imagens.

No setor de educação especificamente, Jan Krutzinna, CEO da edtech ChatClass, que utiliza IA e WhatsApp para o ensino de inglês, aposta que IA generativa não vai substituir o professor, mas enxerga potencial para três casos de uso: feedback automatizado e personalizado para os alunos; tutoria, para ajudar estudantes individualmente a entender conceitos e explicações; e criação de conteúdo didático pelas editoras.

Fonte da informação, escalabilidade e ética

O modelo de IA generativa de texto depende de uma grande quantidade de dados e muito treinamento com aprendizado de reforço para conseguir uma boa performance linguística. Isso significa, contudo, que é preciso tomar muito cuidado com a fonte desses dados e com quem treina o robô. Esses dois fatores são determinantes para a construção do conhecimento e do estilo de fala do bot. Se mal escolhidos podem levar a respostas enviesadas, incorretas, ofensivas ou até criminosas.

A falta de indicação das fontes para a formulação de uma resposta é um dos problemas inerentes do modelo por trás do ChatGPT. “O Google responde a uma busca com links. Assim, a pessoa sabe as fontes. Mas no ChatGPT não dá para saber de onde ele tirou a resposta”, alerta Marcia Asano, COO da Sinch.

A escalabilidade de ferramentas de IA generativa pode ser outro problema. São sistemas que demandam alta capacidade de processamento, o que consome muita energia e espaço de armazenamento na nuvem. O próprio ChatGPT teve problemas para lidar com a alta demanda nas últimas semanas, sofrendo com instabilidades operacionais. Lázaro, da Accenture, se pergunta se não seria mais viável caminharmos na direção da construção de bots de IA generativa especializados em determinados assuntos, em vez de oráculos digitais que respondem sobre qualquer coisa, diante do custo de processamento necessário.

Além das questões técnicas, surgem inúmeras discussões de cunho ético sobre IA generativa. O mau uso por estudantes é apenas um deles, mas que pode ser contornado pelos professores mudando a forma de avaliação – tal como tiveram que fazer quando surgiu o Google. Muito mais complicado, porém, é decidir se um conteúdo criado por IA se trata de plágio se o robô tiver sido treinado com uma grande base de dados de um determinado artista, por exemplo. E mais: de quem é a responsabilidade se algo der errado? Do desenvolvedor do modelo ou de quem utilizou a ferramenta? “Os impactos legais e regulatórios serão conhecidos e endereçados na medida em que identificarmos as preocupações sobre a autenticidade de textos e imagens”, comenta Rafael Pellon, advogado especializado em direito digital, fundador do escritório Pellon de Lima Advogados e colunista do Mobile Time.

No caso de IA generativa de imagens e vídeos, há também a preocupação quanto à produção de fake news. Por isso, é comum que as ferramentas proíbam a geração de conteúdo sexual, violento ou ofensivo, e que também não permitam o uso de imagens de celebridades.

Briga de gigantes

A grande capacidade de processamento dos modelos por trás de IA generativa faz desse um jogo para ser jogado pelas big techs, especialmente aquelas que atuam em cloud, como Microsoft, Google e Amazon. 

“São modelos que requerem muito investimento. Somente as big techs conseguem”, avalia Milton Stillpen, diretor de pesquisa e inovação da Take Blip.

É esperado, portanto, que todas essas gigantes de tecnologia se movam na direção de construir modelos de IA generativa. A Microsoft parece ser a mais ansiosa: já investiu US$ 1 bilhão na OpenAI e estaria se preparando para participar de uma nova rodada de investimento dez vezes maior. Existe a expectativa de que a tecnologia do ChatGPT seria incorporada ao buscador Bing, o que lhe conferiria uma vantagem competitiva sobre o Google.

É provável que, no futuro, teremos diferentes ferramentas de IA generativa de texto hospedadas na nuvem e atreladas a buscadores de Internet. Cada uma terá sido construída com uma base diferente de dados, e poderá, portanto, ter um estilo de fala e vieses distintos. 

Depois de passarmos as últimas duas décadas aprendendo a pesquisar no Google, precisaremos agora desenvolver a habilidade de conversar com esses novos robôs. Isso significa não apenas aprender a melhor forma de pedir alguma coisa a eles (como faria o tal “engenheiro de prompt” citado anteriormente nesta matéria), mas também a “filtrar” ou interpretar as respostas recebidas, levando em conta a base de conhecimento e a “linha editorial” de cada bot.