A diretora de dados, IA apps e automação da IBM Brasil, Marcela Vairo, afirmou que as regras de regulação de inteligência artificial precisam existir, mas é necessário ter princípios de uso da tecnologia. Em painel no Super Bots Experience 2023 nesta terça-feira, 1, a executiva disse que esses princípios não devem partir apenas das empresas ou dos governos, mas devem ser discutidos por toda a sociedade.

“Os princípios são fundamentais e devem basear as conversas (sobre regulação). A tecnologia existe, é uma realidade, está bem democratizada e por isso é importante ter a discussão no Brasil e em outros países também”, afirmou Vairo, ao lado de líderes de outras grandes empresas de tecnologia que estão avançando em IA generativa.

Já o diretor de produto para Dynamics 365 e Power Platform da Microsoft Brasil, Marcondes Farias, acredita que é preciso unir academia, governo, sociedade civil e empresas para ter um consenso sobre princípios e regras. Prevê ainda que, uma vez que os princípios estejam estabelecidos, a própria inteligência artificial vai vigiar ela própria, uma vez que o crescimento da tecnologia não dará margem para um ser humano observá-la.

Quando questionado por esta publicação, quem vigia a IA que vigia todas as IAs, Farias explicou que são os princípios que precisarão confirmar se aquela inteligência artificial está apta para vigiar outras. Acredita ainda que será preciso um conjunto de regras que culminem em uma “certificação” para garantir que aquela IA é “bem estruturada” e que essa validação terá que ser feita por um órgão externo que tenha aval da academia, sociedade, governo e empresas.

Para Marco Bravo, head de Google Cloud no Brasil, um marco regulatório de inteligência artificial é “natural”, uma vez que é uma tecnologia que apresenta comportamentos diversos. Contudo, o executivo frisa que o importante é que as discussões sejam “abertas e transparentes” do ponto de vista da tecnologia.

Carta da IA

Head de Google Cloud no Brasil, Marco Bravo (crédito: Augusto Monteiro/Mobile Time)

Outro tema debatido no evento foi a carta aberta que pediu uma pausa nas pesquisas com inteligência artificial generativa por seis meses, em março deste ano. Com signatários como acadêmicos e líderes do mercado de tecnologia, como Elon Musk, a carta foi amplamente criticada pelos executivos e especialistas presentes.

Um exemplo foi Guilherme Horn, head do WhatsApp na América Latina, que todos os modelos de curva de adoção de tecnologia sempre mostram “a fase do medo”, e que isso acontece tanto para inovações incrementais como disruptivas. Comparou o movimento de receio das IA generativas com o quebra-quebra dos caixas eletrônicos na década de 1980 por medo.

“É natural haver essas reações adversas. Mas o mais importante é o compromisso ético com a tecnologia”, ressaltou. “A Meta acabou de assinar com outras big techs o acordo na Casa Branca que firma o compromisso do uso ético em IA. Algo extremamente relevante”, completou.

Marcelo Finger, professor titular do departamento de Ciência da Computação do Instituto de Matemática e Estatística da USP, afirmou que embora a preocupação com o tema seja importante, a forma sugerida era impossível de ser executada, como “segurar a fumaça com a mão”.

Super Bots Experience 2023

O Super Bots Experience 2023 segue na quarta-feira, 2, com painéis sobre a maturidade dos robôs, as melhores práticas e técnicas de analytics na analise de conversas com bots e IA generativa. Ao longo do dia, executivos de Bradesco, Claro, Rede Globo, Itaú, SAS, Google Brasil, entre outras empresas e entidades, abordarão os temas no WTC, em São Paulo. Mais informações, acesse o site do evento.

Foto: Augusto Monteiro/ Mobile Time