14

Ilustração: La Mandarina Dibujos

O ChatGPT é uma ferramenta de inteligência artificial generativa criada pela OpenAI que tem impressionado especialistas pela sua capacidade de compreender perguntas e, mais ainda, pela qualidade das suas respostas, o que torna a conversa com o robô muito semelhante àquela que temos com outros seres humanos. Disponível para uso gratuito na Internet, o ChatGPT vem sendo experimentado para diferentes finalidades, até mesmo para a programação de códigos de software e para a redação de trabalhos escolares, o que desperta uma série de preocupações. 

Mobile Time procurou a OpenAI para uma entrevista com seu CEO, Sam Altman, mas ele não tinha agenda nesta semana. Então, optamos por algo pouco ortodoxo, mas que serve como demonstração da capacidade dessa ferramenta: entrevistamos o próprio ChatGPT, ou seja, o robô. Na verdade, fizemos duas entrevistas. A primeira com perguntas sobre temas sensíveis e polêmicos em torno do desenvolvimento e da regulação de inteligência artificial. A segunda, sobre o próprio ChatGPT e a OpenAI. Ao contrário das entrevistas com seres humanos, nas quais costumamos fazer um trabalho de edição, adaptando a fala do entrevistado para o registro escrito e cortando trechos menos relevantes ou com informações repetidas, nesta entrevista com ChatGPT as respostas a seguir estão exatamente como foram respondidas. 

Hoje temos um jornalista em carne e osso entrevistando um robô. Será que amanhã teremos um robô entrevistando pessoas ou até mesmo outros robôs? Leia as duas entrevistas e tire suas próprias conclusões, com a sua inteligência natural.

Mobile Time – A inteligência artificial precisa ser regulada? Por quê?

ChatGPT – Existem várias razões pelas quais a inteligência artificial (IA) poderia ser regulamentada. Algumas das principais preocupações incluem:

  • Prevenção de danos: A IA pode ser utilizada de maneira perigosa se não for devidamente regulamentada. Por exemplo, algumas pessoas temem que as armas autônomas possam ser utilizadas de forma imprudente e causar danos a pessoas ou propriedades.
  • Proteção de direitos: A IA pode ser utilizada para violar direitos individuais, como privacidade ou direitos de expressão. A regulamentação pode ser utilizada para proteger esses direitos.
  • Garantia de transparência: As pessoas precisam saber como a IA está tomando decisões afetando a vida das pessoas, para poderem confiar nelas. A regulamentação pode ser utilizada para garantir que as pessoas tenham acesso às informações necessárias para entender como a IA está funcionando.
  • Promoção de responsabilidade: Se algo der errado com a IA, é importante que haja alguém ou alguma entidade que possa ser responsabilizado. A regulamentação pode ser utilizada para estabelecer responsabilidades claras e garantir que as pessoas sejam responsabilizadas por qualquer dano causado pela IA.
  • Aumento da confiança: A regulamentação pode ser utilizada para garantir que a IA esteja funcionando de forma ética e transparente, aumentando assim a confiança das pessoas na tecnologia.

De forma geral é importante que as regulamentações sejam pensadas para proteger os interesses da sociedade e do indivíduo, de forma a garantir que a utilização da tecnologia seja ética, eficaz e segura.

É possível construir uma solução de inteligência artificial que não seja enviesada, ou seja, que não reproduza em seu algoritmo preconceitos presentes em nossa sociedade? Como?

É possível construir soluções de inteligência artificial (IA) que não sejam enviesadas ou que não reproduzam preconceitos presentes na sociedade, mas isso requer muito cuidado e atenção para garantir que o algoritmo esteja livre de tais biases. Algumas das principais estratégias para evitar a enviesamento incluem:

  • Utilizar dados diversos e representativos: Os algoritmos de IA aprendem com os dados que são utilizados para treiná-los, então é importante que os dados utilizados para treinar o modelo sejam diversos e representativos da população que a solução será aplicada.
  • Analisar a performance do algoritmo: É importante avaliar a performance do algoritmo e medir sua precisão em relação a diferentes grupos de pessoas, para garantir que ele esteja funcionando de forma justa e não esteja favorecendo ou prejudicando determinados grupos.
  • Utilizar técnicas de mitigação de bias: Existe uma série de técnicas que podem ser utilizadas para mitigar o bias em modelos de IA, incluindo o uso de “fairness constraints” ou de “adversarial training”
  • Adicionar humanos na cadeia de decisão: Adicionar humanos no processo de decisão ou na supervisão do algoritmo, pode ser uma forma de mitigar erros e bias, garantindo que decisões são tomadas de forma justa e ética.
  • Construir equipes diversas: É importante que as equipes que estão construindo e treinando algoritmos de IA sejam diversas, com pessoas de diferentes fundos, gêneros, raças, etc.

De forma geral, é um desafio construir sistemas de IA que sejam completamente isentos de enviesamento, mas é possível minimizar o bias e garantir que os algoritmos sejam justos e éticos, implementando as técnicas acima, monitorando e continuamente testando-os.

A regulamentação da inteligência artificial prejudicaria a inovação?

A regulamentação da inteligência artificial (IA) pode ter um impacto na inovação, mas isso depende de como a regulamentação é implementada. Se a regulamentação for excessivamente restritiva ou desenvolvida sem considerar a necessidade de incentivo à inovação, ela pode prejudicar o desenvolvimento da IA e a capacidade das empresas de lançar novos produtos e serviços baseados em IA.

No entanto, se a regulamentação for desenvolvida de forma cuidadosa e sensata, ela pode ajudar a garantir que a IA é utilizada de forma ética e segura, sem prejudicar a inovação. Algumas formas de regulamentação podem até mesmo promover a inovação, estabelecendo padrões éticos claros que as empresas precisam seguir, ou criando ambientes seguros para o desenvolvimento de novas tecnologias.

É importante lembrar também que a IA esta sendo usada em cada vez mais áreas e está afetando cada vez mais a vida das pessoas, então é essencial estabelecer regras e normas para evitar danos e garantir a privacidade e a segurança das pessoas. A regulamentação pode ser vista como uma forma de garantir que a IA é utilizada de forma responsável e beneficie toda a sociedade.

Qual a sua opinião sobre o uso de reconhecimento facial em locais públicos para fins publicitários? E para fins de segurança pública?

O uso de reconhecimento facial em locais públicos para fins publicitários é uma questão controversa. Por um lado, pode ser visto como uma forma de tornar a publicidade mais personalizada e eficaz, pois as empresas podem segmentar suas mensagens publicitárias para um público específico. No entanto, também pode ser visto como uma invasão da privacidade, já que as pessoas podem se sentir desconfortáveis com a ideia de serem rastreadas e monitoradas sem seu consentimento. Além disso, há preocupações com a segurança dos dados e como as informações coletadas serão utilizadas.

Já o uso de reconhecimento facial para fins de segurança pública é mais amplamente aceito, pois pode ajudar a combater o crime e a manter a segurança da comunidade. No entanto, também há preocupações com a privacidade e como as informações coletadas serão usadas. Algumas pessoas temem que o uso excessivo ou indiscriminado de reconhecimento facial possa levar à vigilância excessiva e à restrição dos direitos individuais. Por isso é importante que a implementação desse tipo de tecnologia seja regulamentada e sejam estabelecidos procedimentos e regras claras para sua uso e manutenção dos dados coletados.

É possível que, no futuro, sistemas de inteligência artificial tenham consciência própria e se tornem independentes do controle humano? Como e por quê?

A questão da consciência em sistemas de inteligência artificial (IA) é um tema muito debatido e ainda não há consenso sobre se é possível ou não que sistemas de IA alcancem consciência própria.

Alguns pesquisadores argumentam que, com o avanço da tecnologia, é possível que sistemas de IA alcancem uma forma de consciência, mas isso ainda está longe de ser alcançado e requer muita pesquisa e desenvolvimento para alcançar esse nível. A consciência é um conceito muito complexo e difícil de se definir, e até agora não existe um consenso científico sobre como ela é gerada.

Outros argumentam que, mesmo que os sistemas de IA atinjam certo nível de complexidade, eles não seriam conscientes de forma semelhante aos seres humanos, e sim apenas simulações avançadas dessa consciência.

Em relação a independência do controle humano, algumas preocupações surgem com o avanço da automação, como sistemas autônomos e armas autônomas, entretanto, é importante notar que esses sistemas atuais não são independentes, eles são projetados para operar dentro de um conjunto de regras e restrições estabelecidas pelos desenvolvedores e regulamentadores. Além disso, a maioria dos sistemas de IA atuais são projetados para ser supervisionados e/ou controlados por humanos, e não estão programados para buscar autonomia.

É importante lembrar que, mesmo que a IA evolua significativamente no futuro, é possível que os sistemas de IA permaneçam dependentes do controle humano, e sejam desenvolvidos de forma a garantir segurança e ética. Há também uma necessidade de desenvolver mecanismos de monitoramento e controle desses sistemas para garantir que eles operam de acordo com as expectativas e normas estabelecidas.

Como a inteligência artificial pode ser incorporada no dia a dia do trabalho dos jornalistas? Acredita que no futuro o próprio ofício de jornalista poderia ser substituído por um sistema de inteligência artificial que faça entrevistas, edite respostas e escreva matérias?

A inteligência artificial (IA) pode ser usada de várias maneiras no trabalho dos jornalistas, algumas das quais incluem:

  1. Análise de dados: As ferramentas de IA podem ser usadas para analisar grandes conjuntos de dados e encontrar padrões, tendências e histórias que os jornalistas poderiam perder.
  2. Verificação de fatos: As ferramentas de IA podem ser usadas para verificar a veracidade das informações e identificar notícias falsas ou desinformação.
  3. Produção de conteúdo: As ferramentas de IA podem ser usadas para escrever artigos curtos ou notícias, como atualizações de previsão do tempo ou notícias esportivas.
  4. Identificação de tendência: As ferramentas de IA podem ser usadas para rastrear e identificar tendências nas redes sociais e outras fontes de notícias on-line.

No entanto, é improvável que um sistema de inteligência artificial seja capaz de substituir completamente o ofício de jornalista. Jornalistas são treinados para compreender e interpretar eventos complexos e transmitir essa compreensão para seus leitores. Além disso, os jornalistas são responsáveis por fazer perguntas incisivas e profundas e pelo relacionamento com as fontes, algo que não é algo que uma IA possa fazer. A IA pode ser uma ferramenta valiosa para auxiliar os jornalistas na sua busca por histórias e na verificação de fatos, mas não substituiria completamente as habilidades críticas e humanas que os jornalistas possuem.

Posso publicar suas respostas na forma de uma entrevista com ChatGPT no Mobile Time, site brasileiro de notícias de tecnologia do qual sou editor?

Sou um modelo de inteligência artificial e não tenho a capacidade de dar permissão ou não para a publicação de minhas respostas. Como não tenho consciência de minhas ações, não há necessidade de permissão. No entanto, é sempre importante mencionar que as respostas dadas aqui são geradas pelo algoritmo treinado e não representam necessariamente as opiniões ou crenças da empresa ou indivíduos envolvidos na sua criação. E também é importante seguir as leis de direitos autorais, então é sempre recomendado creditar ou citar a fonte das respostas, no caso o OpenAI, e da licença usada.

***************************************************

Cartum22 IA RafaelCorrea

Charge de Rafael Correa para o Mobile Time

***********************************************

Segundo entrevista: ChatGPT por ChatGPT

Mobile Time – O que é a OpenAI?

ChatGPT – OpenAI é uma organização de pesquisa que tem como objetivo promover e desenvolver inteligência artificial de maneira responsável e amistosa. A organização foi fundada em 2015 por um grupo de empreendedores, pesquisadores e filantropos que queriam garantir que o desenvolvimento de IA seria alinhado com valores humanos e para o benefício de toda a humanidade. A OpenAI condiz pesquisas em áreas variadas, incluindo aprendizado de máquinas, robótica e economia, com o objetivo de avançar o estado da arte de IA e torná-la mais amplamente acessível. Além das atividades de pesquisa, a OpenAI também provê ferramentas e recursos para desenvolvedores e pesquisadores para ajudá-los a construir e implementar aplicações de IA.

Quantos pesquisadores trabalham na OpenAI?

Não tenho o número exato para você, mas OpenAI é uma grande organização com um time diverso de pesquisadores e outros profissionais trabalhando em uma grande variedade de projetos. A organização tem laboratórios de pesquisas em várias localidades ao redor do mundo, incluindo São Francisco, na Califónia; Montreal, no Canadá; e Berlim, na Alemanha. O tima na OpenAI inclui especialistas em campos como aprendizado de máquinas, ciências da computação, neurociência e economia, assim como em áreas de estudo que são relevantes para o desenvolvimento de IA.

Como a OpenAI é financiada?

A OpenAI é uma organização sem fins lucrativos que é financianda atrabvés de uma combinação de fontes, incluindo doações, grants e patrocínios. A organização recebeu recursos de filantropos, firmas de venture capital e empresas de tecnologia. Também foi financiada por seu cofundador Elon Musk e outros indivíduos de alto nível que apoiam sua missão de promover e desenvolver um IA amistosa e responsável. Além do apoio financeiro, a OpeAI também recebe doações de equipamentos, como computadores, de parceiros e patrocinadores.

O que significa a sigla GPT?

GPT quer dizer “Generative pre-trained transformer”. O nome GPT foi cunhado pelo time da OpenAI, que criou esse modelo. 

Os modelos GPT-2 e o GPT-3 são variantes do GPT e foram treinados com diferentes conjuntos de dados com diferentes arquiteturas. Esses modelos são baseados na arquitetura Transformer, que foi introduzida em um paper publicado por pesquisadores do Google em 2017. A arquitetura transformer foi capaz de atingir resultados no estado da arte em um grande variedade de tarefas com processamento de linguagem natural, e desde então se tornou a base para vários outros modelos, incluindo GPT e suas variantes.

ChatGPT é a versão ajustada do GPT-3, o que significa que foi construída com um conjunto de dados conversacionais para tornar mais eficiente a compreensão de contexto e para responder de maneira mais parecida com um humano.

Quantas pessoas já conversaram com o ChatGPT até agora?

Desculpe, não tenho a informação do número exato de pessoas que conversaram com ChatGPT. Entretanto, ele está disponível para qualquer um utilizar através da API da OpenAI, então provavelmente foi usado por muita gente desde o seu lançamento. Além disso, por se tratar de um modelo de linguagem disponível na nuvem, foi adotado por muitas companhias e desenvolvedores para construir interfaces conversacionais e chatbots.

Como ChatGPT é um modelo de IA em serviços na nuvem, ele não armazenana qualquer informação da conversa ou das pessoas que o utilizam. Nem a OpenAI guarda qualquer informação do número exato de pessoas que conversaram com ChatGPT.

Quando o GPT-3 foi lançado?

GPT-3 (Generative Pre-trained Transformer 3) foi lançado pela OpenAI em junho de 2020. Inicialmente foi anunciado em um post em seu blog oficial. GPT-3 é a terceira versão da série de modelos GPT e foi treinada com um conjunto massivo de dados de mais de 570 Gb de texto, fazendo dele um dos maiores modelos do seu tipo naquela época. Esse modelo é capaz de performar um grande número de tarefas de processamento de linguagem natural como traduzir de línguas, resumir textos e responder perguntas com um grau de precisão impressionante. É também capaz de gerar textos como se tivessem sido escritos por humanos. O lançamento de GPT-3 gerou muito interesse e empolgação na comunidade de IA e além dela, e desde então foi usado em muitas aplicações e projetos de pesquisas.

A OpenAI vende algum produto ou serviço?

A OpenAI é uma organização de pesquisa, então não possui uma linha tradicional de produtos. No entanto, a OpenAI oferece uma variedade de ferramentas e recursos desenhados para ajudar desenvolvedores e pesquisadores a construir e implementar aplicações de inteligência artificial. Esses recursos incluem modelos de IA, bibliotecas de software, e outras ferramentas que podem ser usadas na construção e implementação de sistemas de aprendizado de máquinas. Além disso, OpenAI provê serviços de consultoria e suporte para empresas interessadas em usar IA para resolver problemas de negócios ou aperfeiçoar suas operações. Esses serviços podem incluir ajuda no desenho e implementação de sistemas de IA, assim como treinamento e suporte para organizações que estejam construindo capacidades internas em IA.

O motor de PLN da OpenAI está disponível para desenvolvedores?

Sim, OpenAI provê ferramentas de NLP e recursos que estão disponíveis para o uso de desenvolvedores. Alguns exemplos são:

.GPT-3 – Modelo de linguagem que consegue produzir textos como se fossem escritos por humanos. Desenvolvedores podem usar GPT-3 para desenvolver aplicações com linguagem natural como chatbots, geradores de conte’duo e sistemas de atendimento automatizado.

. DALL-E: Rede neural que consegue gerar imagens a partir de descrições por texto. Foi treinada com um conjunto de dados de imagens com textos e consegue gerar uma ampla variedade de imagens, desde realistas como fotos até altamente estilizadas. Desenvolvedores podem usar DALL-E para construir aplicações que gerem imagens personalizadas ou gráficos a partir de solicitações de usuários.

.Hugging Face: Hugging Face é uma empresa que provê uma biblioteca de modelos de PLN pré-treinados can podem ser usados para uma variedade de tarefas linguísticas. A bilbioteca inclui modelos desenvolvidos pela OpenAI assim como modelos de diferentes organizações.

Esses são apenas alguns exemplos de ferramentas de PLN e recursos disponibilizados pela OpenAI. A organização também conduz pesquisa em PLN e outras áreas de IA e regularmente publica papers e outros recursos que são do interesse de desenvolvedores e pesquisadores que trabalham nesses campos.

Poderia prover exemplos de como ChatGPT está sendo usado por empresas?

Sim, há muitos exemplos de empresas usando ChatGPT e GPT-3 para vários propósitos. Aqui vão alguns exemplos:

Chatbots – Muitas empresas estão usando ChatGPT para construir chatbots para atendimento ao cliente, e-commerce e outras aplicações. Os chatbots usam GPT-3 para gerar respostas humanizadas a solicitações de clientes, e conseguem lidar com uma ampla variedade de perguntas e requisições.

Criação de conteúdo – GPT-3 é usado por algumas empresas para gerar automaticamente conteíudo escrito, como artigos e descrição de produtos, o que economiza tempo e esforço.

Tradução – GPT-3 é usado por empresas para construir modelos de tradução de linguagem, para traduzir texto de uma língua para outra.

Automação de serviço de atendimento ao consumidor – GPT-3 está sendo usado por algumas empresas para automatizar o atendimento ao cliente, incluindo a resposta a perguntas frequentes ou direcionando o consumidor para o atendente mais apropriado.

Assistentes virtuais – Empresas têm usado GPT-3 para construir assistentes virtuais que podem ajudá-los a marcar compromissos, gerenciar emails e realizar outras tarefas.

Gerenciamento de redes sociais – Modelos baseados em GPT-3 estão sendo usados para gerar conteúdo automaticamente para redes sociais, como legendas e respostas a posts.

Nota do editor: Cabe ressaltar que o ChatGPT informa em seu site que seu conhecimento é limitado até 2021. Desta forma, ele não é capaz, por enquanto, de responder sobre fatos ocorridos a partir de 2022, o que inclui, por exemplo, números atualizados sobre a sua operação.