Até o momento (às 16h33 desta quinta-feira, 30), 1.723 pessoas assinaram a carta pedindo por uma pausa de seis meses nas pesquisas em laboratório de inteligência artificial generativa que estejam desenvolvendo sistemas mais avançados do que o ChatGPT-4. O argumento é de que a tecnologia pode gerar consequências negativas que ainda não foram mapeadas. Mas há também a finalidade não declarada, que circula entre acadêmicos e especialistas: as empresas de alguns dos signatários, como Elon Musk, ficaram para trás em relação à OpenAI.

Apesar de o empresário ter sido um dos financiadores da OpenAI, em 2018 ele saiu e, no ano seguinte, a companhia deixou de ser uma associação e passou a ter fins lucrativos. No caminho, passou à frente dos rivais com o ChatGPT.

Circula na mídia internacional que a OpenAI estaria interessada em entrar para o segmento de robótica, uma área muito cara a Elon Musk, o que pode incendiar a competição do setor. De acordo com a Analytics Indian Magazine, a OpenAI investiu recentemente em uma startup de robótica com sede na Noruega chamada 1x. Anteriormente conhecida como Halodi Robotics, a startup constrói robôs humanoides capazes de movimentos e comportamentos semelhantes aos humanos.

“Se essa carta colar, principalmente as empresas do Elon Musk podem se beneficiar. Porém, é complexo pensar nisso. Ao mesmo tempo que se pede a paralisação, vemos várias empresas demitindo em massa os grupos de responsabilidade ética de IA. Se estão demitindo essas pessoas, como vai ter gente pensando nisso, pensando em produzir uma IA ética?”, questiona Tainá Aguiar Junquilho, professora do IDP (Instituto Brasileiro de Ensino Desenvolvimento e Pesquisa) e pesquisadora do ITS Rio.

Há ainda um questionamento do por que pedir o tempo de seis meses.

“Esqueceram de dizer o que as pessoas signatárias da carta querem com esses seis meses. É parar as pesquisas para uma reflexão? Avançar no aspecto regulatório? Para fazer uma literacia na área da IA para que seja disseminada ainda mais e preparar para o que está vindo? Ou vamos nos debruçar na parte responsiva da IA, da segurança da IA?”, questiona Onédio Seabra Júnior, presidente da I2AI (International Association of Artificial Intelligence). “Para alguns é bom porque dá um tempo para a empresa continuar os estudos e alcançar aqueles que estão mais à frente”, sugere.

“A ideia era que, nesse prazo, se pensasse nas consequências éticas do uso da IA, se amadurecesse a discussão para que surgisse uma regulação para a inteligência artificial. Mas seis meses é pouco e o ideal é ir acompanhando a evolução da tecnologia. No Brasil tem um PL de IA que foi concluído antes do surgimento do ChatGPT. A Europa é a mesma coisa. A China também. Os países já têm, mas a tecnologia vai evoluindo e colocando novos desafios, então, ela precisa ser dinâmica e acompanhar a evolução tecnológica”, avalia Junquilho.

Outro ponto que experts evidenciam é que a carta pode – e talvez já esteja dando frutos –contribuir para aumentar ainda mais o atual hype em torno da IA e seu potencial transformador.

Os potenciais riscos e preocupações

O prazo pedido pode ser usado para se fazer uma reflexão sobre o uso da IA generativa e os potenciais riscos que ela pode causar na sociedade atual. As preocupações vão desde mudanças radicais na educação, no trabalho, em especial o criativo. Outro ponto abordado é que a inteligência artificial, com o tempo, não produzirá mais material a partir do humano, mas da própria tecnologia. “Não teremos material produzido 100% por humanos e isso preocupa. Esses modelos precisam ser alimentados e esses documentos já não serão feitos por humanos, mas introduzidos pelo pensamento da máquina, que é um pensamento probabilístico. Escreve bonito, mas não tem consciência do que está escrevendo”, explica Júnior.

“O ChatGPT está sendo usado como oráculo e ele não é um. E a universidade precisa ensinar o seu uso ético”, avalia Marcelo Finger, professor titular do departamento de Ciência da Computação do Instituto de Matemática e Estatística da USP. De acordo com o docente, o ensino evitaria o que chama de “problemas no varejo” e acredita que a discussão em torno do tema deve ser feita por todos: polícia e exército, inclusive. “Não há regras de governança de inteligência artificial que evitem o uso terrorista de qualquer tecnologia e, para lidar com esse mau uso, outras esferas devem participar do processo”, explica.

Christian Perrone, pesquisador do ITS Rio, avalia que a IA generativa é reducionista para passar a informação de maneira simples, fácil e direta. Com isso, vão embora as nuances muitas vezes necessárias. Cita como exemplo uma busca sobre “principais autores da literatura mundial”. Ao fazer no Google, a apresentação do resultado vem como algo sem limites. Claro, aparecerão alguns nomes em destaque, mas a lista teria milhões de autores. “A lista se apresenta para nós, seres humanos, como infinita ou uma multiplicidade n de potenciais elementos. Ao fazer a mesma pergunta para o ChatGPT, há um limite. Ele te responde cinco, dez, 20, mestres da literatura É quase como se você perguntasse para uma pessoa, que vai te apresentar um número, existe um limite. A capacidade de linguagem, que de alguma maneira passa a informação de uma maneira direta, acaba potencialmente limitando o universo do ser humano”, explica.

“A capacidade do próprio ser humano de tomada de decisão com livre arbítrio também se torna, potencialmente, comprometida. E esse é um dos temas principais que o Yuval Harari (autor do livro Sapiens e um dos primeiros signatários da carta) está tentando levantar. Se a gente for pensar sob o ponto de vista da capacidade do ser humano, que é o que o Harari bate na tecla, a IA tende a, no mínimo, apresentar uma redução do universo do modus pensandi do ser humano. O que isso vai acarretar, a longo prazo, para as capacidades humanas, até hoje a gente não sabe”, resume.

Perrone, então, sugere que não se faça uma pausa, mas se construa um mecanismo de como isso pode ser utilizado de maneira potencialmente limitada, do ponto de vista da pesquisa, nos moldes de um sandbox para a inteligência artificial, baseando-se não no uso massivo dela, mas controlado.