O encerramento do Super Bots Experience 2025, evento realizado entre os dias 21 e 22, em São Paulo, produzido por Mobile Time, foi marcado pelo debate do Marco Legal da IA no Brasil. O encontro contou com a participação de especialistas que apresentaram suas ideias para a melhoria do projeto já aprovado pelo Senado e em discussão na Câmara dos Deputados. A expectativa é que o texto seja votado ainda este ano e que estabeleça as bases para o uso seguro e responsável da tecnologia no país.

Um dos pontos mais levantados foi a necessidade de maior clareza conceitual. Para Natália Marroni, pesquisadora do Think Tank da Abes, o projeto trata a inteligência artificial como um bloco único, sem distinguir tecnologias e aplicações distintas. “É arriscado colocar no mesmo patamar um aplicativo como o iFood, uma rede social como a Meta e sistemas de automação de planilhas. Isso precisa estar mais claro para que a lei seja compreendida e aplicável”, afirmou.

Na mesma linha, Camila Guimarães, gestora de proteção de dados e inteligência artificial no escritório Opice Blum Advogados, defendeu que o texto diferencie “modelos de IA” de “sistemas de IA”, como já ocorre na regulamentação europeia. Segundo ela, a falta dessa distinção gera insegurança para empresas que precisam se adaptar às exigências legais.

A insegurança jurídica foi outro tema recorrente. O advogado Rafael Pellon, do escritório Pellon de Lima, alertou para a possibilidade de uma “debandada” de modelos estrangeiros caso o marco regulatório não traga segurança suficiente. Já Leandro Bissoli, do Peck Advogados, ressaltou que a lei precisa lidar melhor com a diversidade de aplicações: “A mesma IA pode ser usada tanto para logística no iFood quanto na triagem de pacientes em saúde pública. Tratar todas as situações apenas pelo risco pode ser insuficiente”.

Para Mariana Rielli, codiretora da Data Privacy Brasil, a lógica do risco, no entanto, deve ser a diretriz principal da lei. Ela lembrou que negócios menores também podem causar grandes impactos: “Risco é probabilidade mais impacto, não necessariamente escala. A versão brasileira já olha para os direitos das pessoas, o que é um avanço”.

Sistemas proibidos e revisão anual

O painel também discutiu quais práticas deveriam ser vetadas por lei. Pellon alertou para a ausência de menções explícitas a usos excessivos, como drones armados, que já chegaram a ser cogitados por autoridades. Camila contrapôs, lembrando que o PL prevê a revisão anual de listas de práticas proibidas, o que traria flexibilidade para atualização constante.

Outro ponto central foi a governança de dados. Mariana defendeu que a lei traga parâmetros claros para interoperabilidade, códigos de conduta e fiscalização por autoridades setoriais, além da criação de um comitê científico para apoiar a regulação. Mas, como lembrou Pellon, há incertezas sobre a capacidade das agências brasileiras de cumprir esse papel: “A ANPD ainda não conseguiu regular a LGPD plenamente. Sem recursos, como será com a inteligência artificial?”, questiona.

IA e os direitos autorais

Outro ponto sensível foi a questão dos direitos autorais em conteúdos gerados por inteligência artificial. Bissoli alertou para os riscos de retroatividade, em que autores poderiam retirar obras usadas no treinamento de sistemas, gerando custos bilionários para empresas. Ele citou ainda uma recente decisão judicial em Santa Catarina, que determinou a arrecadação de direitos sobre músicas criadas por inteligência artificial em favor do ECAD. Pellon lembrou que o Brasil é o único país que incluiu a questão autoral dentro de sua proposta de marco regulatório. Já Camila Guimarães sugeriu a criação de uma entidade nos moldes do ECAD para lidar especificamente com a remuneração de obras geradas por inteligência artificial. Apesar das divergências, todos os painelistas concordaram que a regulamentação é urgente.

Para Camila Guimarães, a aprovação deve depender de um “fato social relevante” que pressione o Congresso — cenário que, segundo Pellon, pode ser as eleições de 2026, com a proliferação de deepfakes e vídeos manipulados em massa. “É um marco muito transversal, com muitas zonas de interferência. O tempo para votação é curto, mas a pressão social vai definir o ritmo”, resumiu Bissoli.

Foto principal: Painel sobre o marco Legal da IA: Natália Marroni, pesquisadora do Think Tank da Abes; Leandro Bissoli, do Peck Advogados,; Camila Guimarães, gestora de proteção de dados e inteligência artificial no escritório Opice Blum Advogados; Rafael Pellon, do escritório Pellon de Lima; Mariana Rielli, codiretora da Data Privacy Brasil. Foto: Marcos Mesquita/Mobile Time

 

*********************************

Receba gratuitamente a newsletter do Mobile Time e fique bem informado sobre tecnologia móvel e negócios. Cadastre-se aqui!

E siga o canal do Mobile Time no WhatsApp!