Barry Smith

Especialista deu palestra na Abes Conference, nesta segunda-feira, 7 (Crédito: reprodução)

A linguagem é um sistema complexo e dinâmico, no qual diversos fatores contextuais podem interferir no desenrolar de um diálogo. Por isso, o filósofo e ontologista americano Barry Smith acredita que nunca haverá bons chatbots. Ele fala sobre o assunto no livro “Why Machines Will Never Rule the World” (em tradução livre, Por Que as Máquinas Nunca Vão Dominar o Mundo), lançado em 2022, junto com o especialista em inteligência artificial (IA) Jobst Landgrebe. 

“As pessoas que escrevem softwares para geração de linguagem muitas vezes ignoram que os humanos levam em consideração diferentes tipos de pistas contextuais e estruturas cognitivas, espontaneamente e sem pensar, quando usam a linguagem. Estamos cheios de regras linguísticas das quais não temos consciência”, explicou na Abes Conference, nesta segunda-feira, 7.

Na visão do especialista, uma inteligência artificial geral (IAG), capaz de compreender ou aprender uma tarefa intelectual que um ser humano também consegue, seria impossível. Por isso, um motor que reproduz uma linguagem dinâmica não pode ser criado. O Google Tradutor (Android, iOS), por exemplo, apenas transforma um texto estático em outro, utilizando algoritmos binários de processamento. Segundo Smith, o tradutor utiliza 213 milhões deles.

Não há como mensurar ou categorizar todos os parâmetros e variáveis contextuais envolvidos em um diálogo. Onde você está; com quem você está falando; quais são os seus objetivos; se você está falando sério; se você quer controlar a conversa ou que ela seja controlada; o quão longe você está disposto a ir para exercer essa dominância – existem inúmeras maneiras em que o contexto da fala determina o que seria uma resposta apropriada.

“Não funciona, não existe um bom chatbot. Nós todos sabemos que toda vez que entramos em contato com o nosso banco e somos colocados para falar com um computador, quase nunca ficamos satisfeitos”, afirmou. “A razão é que a linguagem humana é muito mais complicada do que criar um mecanismo de conversação para assinar um contrato com um banco. Eles vêm tentando fazer isso há 50 anos. E nossa tese é que eles nunca terão sucesso. Nunca haverá um bom chatbot.”

Ele lembrou de Tay, o chatbot criado pela Microsoft em 2016. Em menos de 24 horas de funcionamento no Twitter, o robô passou a tuitar frases racistas e misóginas e expressar outras ideias politicamente incorretas, sendo alimentado a partir do que os outros usuários escreviam para ele. Além disso, suas respostas eram normalmente vazias e repetitivas. 

“Este não é o tipo de chatbot que resolveria o problema de criar uma resposta humana apropriada em uma conversa. Por que não? Porque quando os humanos conversam, sempre querem alguma coisa. É esse desejo que faz passarem no teste de Turing. Os computadores não conseguem porque não querem nada em uma conversa. Eles não têm objetivos. Quando os humanos conversam, eles sempre têm objetivos, mesmo que seja apenas passar o tempo enquanto esperam por um avião, por exemplo. Ninguém encontrou uma maneira de captar objetivos, intenção, vontade humana em um computador”, disse.