Depois da repercussão da carta aberta assinada por uma série de personalidades – como Elon Musk, Steve Wozniak e Yuval Noah Harari – e que hoje está com 11.761 signatários –, a OpenAI resolveu se pronunciar e defender o ChatGPT.

O texto com o título “Nossa abordagem para segurança de IA”, publicado no blog do site da empresa, nesta quarta-feira, 5, defende que a OpenAI se preocupa e protege a inteligência artificial generativa com bloqueios de segurança em diferentes aspectos.

“Antes de lançar qualquer novo sistema, realizamos testes rigorosos, contratamos especialistas externos para obter feedback, trabalhamos para melhorar o comportamento do modelo com técnicas como aprendizado por reforço com feedback humano e construímos sistemas amplos de segurança e monitoramento”, escreve a empresa.

Como exemplo, o texto cita que o ChatGPT-4, o último modelo da IA generativa: depois de terminado seu treinamento, a empresa passou mais de seis meses trabalhando para torná-lo mais seguro antes de lançá-lo publicamente.

A OpenAI também espera que a regulação ajude a garantir a adoção de melhores práticas, e que “nos envolvemos ativamente com os governos sobre a melhor forma que essa regulamentação pode assumir.”

A empresa defende que sua IA generativa aprende com o mundo real e que não é possível prever todas as maneiras de uso da tecnologia pelas pessoas. “É por isso que acreditamos que aprender com o uso no mundo real é um componente crítico para criar e liberar sistemas de IA cada vez mais seguros ao longo do tempo.”

Outro ponto foi que a API disponibilizada a desenvolvedores permite o monitoramento e a tomada de medidas contra o mal uso da ferramenta.

“O uso no mundo real também nos levou a desenvolver políticas cada vez mais diferenciadas contra comportamentos que representam um risco genuíno para as pessoas, ao mesmo tempo em que permitem muitos usos benéficos de nossa tecnologia.”

“Fundamentalmente, acreditamos que a sociedade deve ter tempo para se atualizar e se ajustar a uma IA cada vez mais capaz, e que todos os afetados por essa tecnologia devem ter uma opinião significativa sobre como a IA se desenvolve ainda mais. A implantação interativa nos ajudou a trazer várias partes interessadas para a conversa sobre a adoção da tecnologia de IA de forma mais eficaz do que se não tivessem tido experiência em primeira mão com essas ferramentas”, diz o texto.

Proteção às crianças e à privacidade também foram temas abordados. A plataforma afirma não permitir que se gere conteúdo de ódio, assédio, violento ou adulto, por exemplo. O GPT-4 tem 82% menos probabilidade de responder a solicitações de conteúdo não permitido, na comparação com o GPT-3.5, e possui um sistema para monitorar abusos. Também informa que é proibido fazer upload de material referentes a abuso infantil. O material não só é bloqueado como denunciado ao Centro Nacional para Crianças Desaparecidas e Exploradas dos Estados Unidos.

Sobre privacidade, a OpenAI vem removendo informações pessoais do conjunto de dados de treinamento sempre que elas são identificadas, de modo a minimizar a chance de que seus modelos possam gerar respostas que incluam informações pessoais de indivíduos particulares.

Melhorando a precisão factual

A empresa também apontou uma preocupação em melhorar a precisão factual do ChatGPT, em especial por meio do feedback do usuário. “Aproveitando o feedback do usuário sobre as respostas do ChatGPT que foram sinalizadas como incorretas como uma fonte principal de dados, melhoramos a precisão factual do GPT-4. O GPT-4 tem 40% mais chances de produzir conteúdo factual do que o GPT-3.5”, garante a OpenAI.

“No entanto, reconhecemos que há muito mais trabalho a ser feito para reduzir ainda mais a probabilidade de alucinações e educar o público sobre as limitações atuais dessas ferramentas de IA.”

Ao contrário do que a carta assinada por personalidades pedia – seis meses de paralisação nas pesquisas em IA generativa mais avançadas do que o ChatGPT-4 –, a OpenAI acredita que a abordagem prática para resolver problemas de segurança na IA é justamente “dedicar mais tempo e recursos  para pesquisar mitigações eficazes e técnicas de alinhamento e testá-las contra abusos no mundo real.” E garantem que serão mais cautelosos.

A OpenAI admite que talvez seja necessário esperar mais de seis meses para implementar uma nova versão do ChatGPT para melhorar a segurança dos sistemas de IA. “Portanto, os formuladores de políticas e os provedores de IA precisarão garantir que o desenvolvimento e a implantação da IA sejam administrados de maneira eficaz em escala global, para que ninguém economize para progredir. Este é um desafio assustador que requer inovação técnica e institucional, mas estamos ansiosos para contribuir”, conclui.