[Matéria atualizada em 30/5/2023, às 15h46, para correção do nome de André Fernandes] Há alguns anos, propostas de regulação de inteligência artificial (IA) vêm sendo elaboradas no mundo, em países como Estados Unidos, China e na União Europeia, mas elas não previam a popularização de tecnologias generativas, como o ChatGPT, que fizeram surgir novos desafios para a futura legislação. Apesar de algumas leis e projetos já contemplarem parte dessas questões, pelo menos em certa medida, as propostas precisarão ser adaptadas para lidar com problemas inéditos, segundo especialistas.

“O principal risco talvez seja a numerosidade dos riscos”, resume Tainá Aguiar Junquilho, pesquisadora do Instituto de Tecnologia e Sociedade do Rio (ITS-Rio) e autora do livro “Inteligência Artificial no Direito: Limites Éticos”. Para ela, o tema é complexo. É difícil colocar na balança todos os problemas envolvidos no uso de sistemas de IA generativa. Não é possível antecipar soluções a serem endereçadas em uma regulação, que precisará de um amplo debate multissetorial e multidisciplinar.

“A maioria dos modelos regulatórios vão classificar a IA em níveis de risco, de acordo com o uso daquele sistema que está sendo desenvolvido. Uma parte dos autores entendem que esse tipo de regulação que classifica em risco não abrange as IAs generativas, porque elas podem ser usadas para várias situações”, explica. “É por isso que traz tantos desafios.”

IAs generativas podem criar uma variedade de dados, como imagens, textos, vídeos e áudios. Elas vinham sendo desenvolvidas há alguns anos, mas começaram a ser utilizadas mais amplamente depois do lançamento do chatbot da OpenAI, em 30 de novembro de 2022. Apesar de ser impossível prever todos os seus impactos na sociedade, alguns deles já vieram à tona, de acordo com a pesquisadora do ITS-Rio. Entre os principais, é possível enumerar a opacidade desses sistemas; o reforço discriminatório que eles podem suscitar; a desinformação que podem provocar; suas possíveis violações de dados e direitos autorais; e até mesmo impactos no futuro do trabalho.

Proteção de dados

Segundo Junquilho, apesar da maioria acreditar que as regulações existentes hoje não dão conta da IA generativa, algumas pessoas acham que leis já existentes contemplam, em parte, essas tecnologias. Um bom exemplo é a Lei Geral de Proteção de Dados (LGPD), que endereça um dos pontos mais sensíveis relacionados à IA generativa, baseada em grandes modelos de linguagem (LLMs, dna sigla em inglês), treinados a partir de dados obtidos na Internet, muitas vezes sem consentimento. Há um debate sobre a legitimidade de empresas como a OpenAI usarem essas informações para treinar seus sistemas.

A primeira suspensão do ChatGPT no mundo, ocorrida na Itália, em março de 2023, foi justamente por conta dessa questão. A Garante Per La Protezione Dei Dati Personali (GPDP) enviou uma ordem temporária de interrupção do processamento de dados de usuários italianos no ChatGPT, dizendo-se preocupada com o fato de o serviço possivelmente violar o Regulamento Geral sobre a Proteção de Dados (GDPR), abrindo uma investigação. Uma das suspeitas era de que faltava base legal adequada para a coleta de dados pessoais.

“Não tenho acesso aos meus dados de treinamento, mas fui treinado com base em uma mistura de dados licenciados, dados criados por treinadores humanos e dados disponíveis publicamente. A OpenAI não divulgou publicamente os detalhes da duração do treinamento ou os conjuntos de dados individuais usados. Fui treinado em uma mistura de textos da Internet, incluindo livros, artigos e sites”, respondeu o ChatGPT, ao ser perguntado sobre os seus dados de treinamento.

A OpenAI tomou uma série de medidas para se adequar ao GDPR, como publicar no seu site informações para esclarecer quais dados pessoais são tratados e os métodos usados para o desenvolvimento dos algoritmos. Deu também o direito de se opor ao tratamento dos seus dados pessoais, inclusive através de um formulário de preenchimento online. Mas isso pode não ser suficiente. “A OpenAI ainda não fez esse esforço tão grande de adaptação às leis de proteção de dados”, avalia Junquilho.

“Nada impede, do ponto de vista jurídico, que essas leis sejam aplicadas. No direito, temos um princípio de que o juiz não pode se eximir de decidir. Ele teria que encontrar instrumentos dentro das leis vigentes para decidir. Seria possível, sim, manejar essas leis para regular. No entanto, uma lei específica pode ajudar a solucionar, porque ela dá mais sistematicidade. Essas questões ficam soltas e podem gerar insegurança jurídica. Uma lei pode trazer essas respostas previamente, dando maior previsibilidade a todo esse processo”, aponta André Fernandes, diretor e cofundador do Instituto de Pesquisa em Direito e Tecnologia do Recife (IP.rec).

Essa é a mesma visão de Ana Bárbara Gomes Pereira, coordenadora de políticas públicas e pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS-BH). Ela acredita que uma legislação é extremamente necessária, pois o campo se desenvolve e se modifica muito rapidamente. Uma lei endereçaria riscos específicos da tecnologia. “É importante para que isso seja olhado com a complexidade que precisa. Ela é complementar a outros esforços de regulação, que estão sendo desempenhados em diferentes esferas da Internet, da tecnologia e sociedade em geral”, explica.

Direitos autorais

Uma das questões inéditas levantadas pelos sistemas de IA generativa diz respeito à propriedade intelectual. Ela pode ser bem ilustrada por geradores de imagem como Midjourney e Dall-E 2, que são baseados tanto em conteúdos de uso livre, quanto aqueles resguardados por direitos autorais. Essas ferramentas são capazes de criar imagens com o estilo de um artista, algo que é parte fundamental da identidade deste profissional.

“Quando você é um artista ou o criador de algum conteúdo, fere, além da sua privacidade, também a sua autoria, genialidade, criatividade, que você precisaria ser remunerado por isso idealmente”, comenta Junquilho, do ITS-Rio. “O estilo define muito, é uma parte muito específica do trabalho do artista. Como artista, você poderia defender o seu direito autoral, o uso impróprio das suas artes e ao modelo que lucra em cima desse processamento não autorizado dessas imagens”, explica Fernandes, do IP.rec.

Essa foi uma das questões que os membros do Parlamento europeu tentaram endereçar em emendas aprovadas para serem adicionadas ao Ato de IA europeu, no dia 11 de maio de 2023. De acordo com a proposta de regulação, uma das mais avançadas no mundo, os responsáveis pelo desenvolvimento de IAs desse tipo deverão prover sumários dos conteúdos protegidos por direitos autorais usados para treinar a IA. Além disso, deverão conceder acesso ao banco de dados, quando necessário, para que o órgão de fiscalização europeu possa averiguar que o sistema não esteja infringindo nenhuma regra de propriedade intelectual.

De acordo com Victor Habib, advogado, professor e pesquisador na área de IA, a proposta não deve prejudicar a legislação já existente da UE sobre direitos autorais e direitos relacionados. Os legisladores tiveram uma preocupação em harmonizar o regulamento com as leis de propriedade intelectuais do bloco econômico.

“O regulamento proposto estabelece que os provedores de modelos de IAs generativas devem cumprir as obrigações de transparência. Isso significa que eles devem fornecer informações claras e precisas sobre como seus modelos são treinados, incluindo quais dados são usados e como eles são adquiridos. Com a transparência dos dados utilizados no treinamento de IA, é possível identificar os autores das potenciais propriedades intelectuais e, dessa forma, proteger seus respectivos direitos”, explica.

Já existem leis de direitos autorais, mas sistemas de IA generativa mudaram a regra do jogo, tanto pela forma como utilizam esses dados para o seu treinamento, quanto pela forma como os usuários utilizam para criar novos textos, imagens e outros conteúdos. Não há jurisprudência sobre o tema. Segundo a legislação de propriedade intelectual, para se ter direito autoral sobre algo é preciso que o autor pense, planeje e execute a criação de determinada obra. Em uma obra feita por IA, o criador tem interferência, ao alimentar os dados, mas não no resultado final, que é feito pelos algoritmos. “Como é um texto inicial, eles apenas definiram diretrizes gerais.  Não tem ainda quais soluções especificas serão utilizadas na prática”, adiciona.

Transparência

Outro ponto que as regulações buscam endereçar diz respeito à opacidade dos sistemas de IA generativa, isto é, a falta de transparência ou compreensão dos processos e decisões tomadas por esses sistemas, que usam algoritmos complexos, redes neurais e grandes conjuntos de dados para aprender padrões e criar novos conteúdos que se assemelham ao que foi fornecido durante o treinamento. No entanto, esses sistemas podem ser opacos na forma como produzem os resultados. Essa falta de transparência pode ser problemática em várias áreas, incluindo ética, responsabilidade e confiança.

Modelos de IA generativa são considerados caixas pretas. É difícil entender os processos internos que levam a uma determinada resposta. Isso ocorre porque eles possuem milhões (ou até bilhões) de parâmetros, e suas decisões são o resultado de cálculos complexos realizados por esses parâmetros interconectados.

“Os sistemas de IA podem apresentar dificuldades quando se trata de compreender e responsabilizar suas ações. Isso ocorre porque estão constantemente aprendendo novas funções e podem se tornar imprevisíveis, até mesmo para os seus criadores, os programadores. Essa imprevisibilidade dos sistemas de IA pode gerar riscos e criar lacunas legais, uma vez que não é fácil determinar com precisão como e por que um determinado resultado foi produzido pelo sistema de IA”, ressalta Habib.

Abordar a opacidade dos sistemas de IA generativa é um desafio em aberto. Algumas propostas de regulação tentam torná-los mais transparentes, por meio de técnicas de explicabilidade de IA, que tentam fornecer insights sobre o processo de tomada de decisão do modelo. O Projeto de Lei 2.338, apresentado em 3 de maio de 2023 pelo o presidente do Senado Rodrigo Pacheco, prevê a necessidade das empresas produzirem relatórios para dar mais transparência a sistemas de IA.

“Existem as obrigações de transparência, para compreendermos melhor o funcionamento dessa tecnologia, o direito à explicação, mas também para fins de pesquisa, para que tenhamos mais clareza do que acontece. Dessa forma, podemos fazer inferências melhores sobre o que é ou não é desejável, o que seria ou não confiável. Como que esses sistemas estão respondendo? Qual é o nível de precisão que eles estão oferecendo para a sociedade? E como é que eles estão prevenindo vieses? Esses relatórios  são muito importantes para a sociedade em geral, mas também para o que vem depois, para que possamos amadurecer enquanto pesquisadores e ter um olhar crítico baseado no que vimos até aqui e o que foi documentado e produzido”, diz a coordenadora do IRIS-BH.

Regulação no Senado

A mais recente proposta de regulação de IA apresentada no Congresso Nacional é baseado no trabalho da comissão de juristas que ficou mais de um ano debatendo sobre regulação de IA. O PL se propõe a substituir projetos anteriores, principalmente o 21/2020, de autoria do senador Styvenson Valentim (Podemos-RN), aprovado em 2021 na Câmara dos Deputados. Ele cria regras para sistemas de IA disponibilizados no Brasil, estabelecendo os direitos das pessoas afetadas por seu funcionamento, define critérios para o uso desses sistemas pelo poder público, prevendo punições para violações à lei. Também estabelece que um órgão atuará na fiscalização e regulamentação do setor.

Segundo explica a pesquisadora do ITS-Rio, o PL atribui responsabilizações e sanções a empresas que violarem o marco regulatório. Assim como a maioria das propostas, também classifica a IA em níveis de risco. Inclusive, a entidade fiscalizadora poderá inserir novos riscos, caso haja necessidade. O PL traz uma série de deveres também para quem desenvolve e opera sistemas de IA no Brasil, definindo a possibilidade de autorregulação regulada, em que as próprias empresas definem as melhores práticas para uma IA ética.

Em certa medida, Junquilho acredita que o PL já endereça algumas questões relacionadas à IA generativa. “Ele prevê que é IA de alto risco quando usada para fins de educação. Você tem situações em que você usa a IA generativa para educação. Então, essa seria uma uma situação em que você precisaria tomar medidas mais cautelosas. Se, por exemplo, o sistema da OpenAI for usado para o âmbito educacional, ela está desenvolvendo uma IA de alto risco, independente se ela é usada só para isso ou não”, comenta.

Pereira, do IRIS-BH, diz que esses direitos dizem respeito a todo tipo de IA, sendo generativa ou não. O mesmo cabe  à reparação de danos, em caso de violação desse direitos. “O PL prevê o direito à explicação,  de contestar decisões que produzam efeito jurídicos e que impactem, de alguma forma, o interesse dos usuários. Esses princípios são muito importantes para que nos compreendermos como é que uma tecnologia pode interagir, que nível de dano ou de efeito ela pode causar na vida dos usuários”, explica. “Esses direitos básicos são bons para que, ao mesmo tempo, se estabeleça um ecossistema de inovação que assegure a produção de uma tecnologia que seja positiva socialmente. Eu acho que isso se aplica à IA generativa.”

PL avançou

Endereçando ou não questões relacionadas à IA generativa, é unanimidade entre os especialistas que o novo PL apresenta uma discussão muito mais elaborada do que foi o PL 21/2020, projeto que se assemelha mais a uma carta de princípios, sem apresentar direitos, deveres ou como assegurar a efetividade da lei. “Legislações que têm uma participação multissetorial tendem a ser melhores do que uma que não ouviu a população e nem os diversos setores envolvidos”, ressalta Junquilho, que contribuiu nas audiências públicas, das quais participaram especialistas de diversas áreas.

Para o diretor do IP.rec, este texto é mais relevante, comparado ao PL anterior, pois é capaz de dialogar com os avanços no debate de técnico de IA. Ele propõe uma “gramática comum”. É a mesma lógica da LGPD e do GDPR. Com a LGPD, o tratamento de dados segue um nível mínimo para processos de pesquisa, desenvolvimento e oferta de serviços, que permite a empresas brasileiras oferecerem seus serviços no continente europeu. O novo PL dá as mesmas condições para IA aqui no Brasil e na Europa, por exemplo, mas não só a legislação do bloco, como também de outros países.

“Ele permite que o Brasil não só esteja a par com o que funciona ou não em IA, mas também com diálogo internacional sobre isso. Isso é muito importante, nessas tecnologias que estão em vários países, ter uma regulação que permite, por exemplo, que o modelo de negócio brasileiro seja válido aqui no Brasil, mas que também já tenha as medidas de adequação mínimas para a atuar na Europa”, explica Fernandes.

O debate sobre a proposta deve ir para a Comissão de Ciência e Tecnologia (CCT). Lá, o texto deve ser apresentado para ter o primeiro parecer de aprovação. A depender do trâmite que a presidência do Senado estabelecer, ele poderá  ir para a Comissão de Cidadania e Justiça (CCJ), que avalia os aspectos de constitucionalidade e justiça. Por fim,  seguiria para o plenário.

Por ter sido apresentado pelo presidente do Senado, Junquilho acredita que o texto já nasce com uma força maior do que se tivesse sido proposto por qualquer outro senador. Ela também pensa que estamos no momento mundial propício para a legislação, com discussões no mundo inteiro. Até mesmo Sam Altman, CEO da OpenAI, veio a público pedir por uma regulação de IA. “A meu ver, vamos aprovar nesse ano ou até 2024, no máximo, alguma regulação tanto para combate à fake news e desinformação quanto para IA. Só não sabemos se o conteúdo vai ser mais principiológico ou se vai pender para uma regulação com responsabilização e sanção. Essa é uma questão política que não se sabe quem vai vencer”, avalia.

Futuros desafios

Um dos maiores desafios na regulação de IAs de propósito geral está no fato de que, a cada dia, novos casos de uso surgem, em diferentes setores da sociedade – ciência, educação, saúde, comunicação, direito e tantos outros. Com eles, há o risco de ocorrerem impactos em áreas que antes não era nem possível imaginar, possivelmente violando direitos garantidos por lei. Como uma futura legislação poderá lidar com esses riscos que ainda nem se sabe quais são?

“Isso é um grande problema, porque podemos ficar nessa situação de surgir uma nova tecnologia a qualquer momento, no meio de um processo legislativo. Pode se tornar um processo infinito, porque a própria academia ainda está entendendo como funciona. O direito sempre vai correr atrás dos outros processos sociais. O debate sobre a regulação da tecnologia tem criado a impressão de que poderíamos nos preparar  a priori para tudo que vier a acontecer. Primeiro, é preciso deixar de lado essa ideia de que vai ter uma solução prévia para lidar com isso, porque é natural que o direito seja surpreendido com fatos sociais novos”, diz Fernandes, do IP.rec. “A lei não vai dar conta de tudo, nunca vai resolver todos os problemas da humanidade. É um desafio quebrarmos com essa ideia”, ecoa Junquilho.

Para ela, uma solução que poderia endereçar o desafio das mudanças constantes em tecnologias de IA de propósito geral seria utilizar modelos regulatórios mais flexíveis, como sandboxes. Neles, os sistemas são desenvolvidos em um ambiente de testes seguro, sob supervisão e em conversa com o Estado. A ideia é que o Estado aprenda com as empresas, e que as empresas aprendam com o Estado, a fim de se chegar em um termo regulatório suficiente.

“Algo que aprendemos no mundo é que precisamos de uma discussão multissetorial e multidisciplinar. Não adianta você colocar os dois pólos distantes. Temos que achar um meio de todo mundo sentar na mesa, de chamar as empresas e chamar a sociedade civil, experts, porque senão vira um jogo de inimigos. E isso é muito ruim para regulação”, diz.