A aprovação do parecer do marco legal de inteligência artificial deverá acontecer até o fim do ano, promete seu relator, o deputado Aguinaldo Ribeiro (PP-PB), uma vez que o tema “é uma das prioridades para o governo e para o presidente da Câmara, Hugo Motta (Republicanos-PB)”, mas a apresentação ainda não tem data para acontecer.
Com uma comissão especial em curso para debater o tema, o parlamentar desconversou ao ser questionado por Mobile Time sobre quais aspectos do texto que foi aprovado no Senado no ano passado deverão ser modificados. “O PL 2.338/23 está em fase de discussão nas audiências públicas na Comissão Especial criada para tratar do assunto. Esta comissão aprovou um plano de trabalho que prevê debates e discussões sobre inteligência artificial com setores da sociedade, inclusive a realização de seminários regionais”, disse. “As discussões estão em curso. Todo o texto está sendo avaliado e discutido, inclusive com o senador Eduardo Gomes, que foi o relator do projeto aprovado no Senado”, acrescentou.
O PL, de autoria do ex-presidente do Senado, Rodrigo Pacheco (PSD-MG), é um substitutivo a oito propostas apresentadas por deputados e senadores entre 2019 e 2024 que buscavam criar um Marco Regulatório da IA no Brasil. O Plano de Trabalho do colegiado prevê dez audiências públicas, indo de junho a setembro, seminários regionais e um seminário internacional para aprofundamento em medidas instituídas pelos países, visando os desafios técnicos, jurídicos e éticos do uso de IA, que devem ocorrer em outubro e novembro.
O texto, como apontam especialistas durante as audiências, estaria mais alinhado à abordagem europeia da IA, que é mais prescritivo e centralizado e é adotado pela União Europeia (IA Act). Há, no entanto, o modelo regulatório norte-americano, mais voltado para a autorregulação e mais descentralizado, além do japonês, considerado mais “amigável” à inovação.
A comissão, no entanto, estaria tendendo a um modelo “híbrido”, alinhamento que vem do Senado, que aprovou que as responsabilidades de acompanhamento das IAs no Brasil não fiquem centradas na ANPD (Autoridade Nacional de Proteção de Dados). No texto aprovado pelos senadores é prevista a criação do Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA).
Entre a primeira versão do texto elaborado pela comissão de juristas e sua aprovação no Senado, em dezembro de 2024, o texto recebeu mais de 200 emendas. Atualmente, o PL possui 80 artigos.
Especialistas
Especialistas ouvidos por Mobile Time acreditam que ainda existe um longo caminho para ajustar o texto do marco legal de IA.

Camila Guimarães, gestora de proteção de dados e IA do Opice Blum Advogados. Crédito: divulgação
Camila Guimarães, gestora de proteção de dados e IA do Opice Blum Advogados, cita quatro pontos de preocupação na proposta: a não diferenciação entre modelos e sistemas de IA; a discussão de direitos autorais mais rigorosa do que o AI Act; a revisão das decisões automatizadas restrita aos sistemas de alto risco; e a ANPD como autoridade máxima, o que pode enfraquecer as agências reguladoras.
Sobre o primeiro ponto, o PL não diferencia o que é modelo e o que é sistema de IA. “O que estamos regulando? Qual o escopo dessa legislação?”, questiona. O Brasil é um dos países que mais consome inteligência artificial generativa. E desenvolve sistemas a partir de modelos prontos. O mercado pega os LLMs que já existem, faz adaptações e transforma em sistemas específicos. “Quando o PL não diferencia o que é sistema e o que é modelo, vejo insegurança jurídica, para quem desenvolve e para quem consome”, afirma.
“Se eu tiver um problema lidando com o sistema, falo com quem? As responsabilidades precisam estar claras. Se não soubermos de quem é a responsabilidade, como prestar contas disso?”, questiona a advogada.
Vale reforçar: o modelo é comercializado pelas grandes empresas. Por exemplo, o GPT, da OpenAI. Quando uma empresa usa o grande modelo de linguagem e o customiza, ele é um sistema de IA.
Direitos autorais e inteligência artificial
A segunda questão salientada pela especialista é a discussão sobre os direitos autorais. Há quem defenda que o tema não deveria entrar no PL de IA, mas, sim, deveria se fazer uma revisão da legislação sobre o assunto.
Guimarães compara com o modelo europeu. No AI Act, há uma recomendação para que desenvolvedores de LLMs coloquem um sumário informando quais obras foram utilizadas para fazer o treinamento daquela IA para que os autores possam reclamar possíveis direitos autorais. Entraria como recomendação, medida de boa prática. No texto brasileiro isso entrou como uma obrigação legal.
A advogada acredita que há uma carga excessiva de regulamentação porque o Brasil não é desenvolvedor da tecnologia. E, se os autores têm direito à remuneração, como operacionalizar isso na prática? “O texto não explica. Como chegar nessa matemática? Supondo que a empresa tenha usado três livros meus para treinar seu modelo de IA, como se faz a conta sobre o quanto esses livros significam no todo do sistema de IA? É complexo. Alguns defendem a criação de algo como um ECAD, que faria a arrecadação. É o mais próximo para imaginar esse modelo”, avalia. “É uma das grandes interrogações desse PL. No papel, parece fazer sentido, mas sair para o mundo real, temos dúvida de como orquestrar tudo isso.”

Rafael Pellon. Foto: divulgação
Rafael Pellon, advogado especializado em direito digital, sócio-fundador do Pellon de Lima Advogados e consultor jurídico do MEF, concorda que a questão dos direitos autorais é um dos calcanhares de Achilles da regulação aprovada no Senado. “É uma questão que fica engolida no meio de outras discussões. É uma outra grande oportunidade perdida porque a gente está discutindo desde o Marco Civil da Internet, desde 2009”, comenta. O debate, que precisava ser travado em 2009, no início das discussões, ou em 2013, no momento da aprovação do MCI, ou quando ele entrou em vigor, em 2014, não aconteceu em nenhum desses momentos.
ANPD
Outro ponto sinalizado por Guimarães é a ANPD como a autoridade competente da SIA (Sistema Nacional de Inteligência Artificial). Para Guimarães, como está no texto, a ANPD enfraqueceria as agências reguladoras e suas contribuições.
“A ANPD é responsável por revisar a lista dos sistemas considerados de alto risco. O que se tem discutido quando se centraliza na Autoridade Nacional de Proteção de Dados é que perdemos uma oportunidade porque as agências reguladoras perderiam espaço de representação. Elas sabem das especificidades do seu campo”, acredita.
Há também aqueles setores sem uma agência reguladora. Neste caso, eles estariam sob o guarda-chuva da ANPD. “Ela teria que ser remodelada e com uma ampla abrangência de funcionários”, alerta Guimarães.
Pellon acredita que a melhor solução seria reunir Anatel, Ancine e ANPD, com suas competências, para fazer a validação e a fiscalização. O especialista é contra a criação da SIA. “Acho completamente descabível. É duplicação de trabalho. Existem competências da Anatel e da ANPD que poderiam tranquilamente suprir e realizar esse trabalho. Sou defensor de que o Brasil, assim como outros países da OCDE, como a Inglaterra, unificasse a questão digital e a regulação digital debaixo de uma única agência. Ficaria muito mais fácil”, acredita
Revisões das decisões
Outro ponto é a revisão das decisões automatizadas. Na LGPD essa revisão não está clara se deve ser feita por um humano. O veto do então presidente Michel Temer eliminou a exigência de ser uma revisão humana, deixando em aberto a possibilidade de uma revisão automatizada.
Apesar da questão, o PL de IA afirma claramente que a revisão deve ser feita por um humano. Porém, ela é restrita aos sistemas de alto risco, o que surpreende Camila Guimarães. “Faz sentido porque essas IAs são aquelas com mais chances de afetar os direitos das pessoas, mas acho que restringe. Se quisermos pensar em algo protetivo, na garantia de liberdades individuais e proteção aos direitos humanos, essa garantia deveria ser para qualquer sistema de IA e não restrito aos sistemas de alto risco”, afirma. A especialista diz que não é para banalizar, mas voltar-se a uma IA que afetasse significativamente a vida da pessoa.
Para Luis Fernando Prado, sócio-fundador do escritório Prado Vidigal, a redação das atividades proibidas e de alto risco é abrangente demais. “O projeto adota proibições ex ante (ou seja, antes de qualquer dano concreto) com base em definições amplas, o que pode inibir a inovação em áreas legítimas. O Art. 13, por exemplo, proíbe sistemas que visem ‘instigar ou induzir o comportamento’ de maneira que cause danos ou que explorem ‘quaisquer vulnerabilidades’. A subjetividade de termos como ‘induzir’ ou a abrangência de ‘vulnerabilidades’ (definido no Art. 4º, XVII ) gera incerteza sobre onde está a linha entre uma ferramenta de marketing persuasiva e um sistema proibido”, detalha.

Luis Fernando Prado. Foto: divulgação
Outro ponto abordado por Prado é que o PL não encerra algumas discussões e depende de regulamentação futura. “O texto utiliza repetidamente a expressão ‘nos termos de regulamento’. Isso significa que, embora a lei estabeleça o ‘quê’, o ‘como’ permanece indefinido. Um exemplo crítico é a própria lista de sistemas de alto risco (Art. 14). O Art. 15 e o Art. 16 determinam que o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) poderá alterar essa lista. Uma empresa que hoje desenvolve um sistema não classificado como de alto risco poderia, após uma futura regulamentação, ser reclassificada, tendo que se adaptar a um novo e oneroso conjunto de obrigações de governança (Art. 18) e realizar uma AIA (Art. 25). Essa incerteza dificulta o planejamento de longo prazo e o cálculo de risco para investimentos”, alerta.
“Embora a versão atual do PL esteja muito melhor do que as anteriores, ainda assim acho difícil cravar pontos positivos que justificariam sua aprovação. Em linhas gerais, acho que os pontos de atenção superam em muito eventuais pontos positivos”, lamenta.
Marco Legal de IA no Super Bots Experience 2025
O Marco Legal de IA será tema de um painel de discussão no Super Bots Experience & Forum de Autoatendimento Digital 2025, evento organizado por Mobile Time que acontecerá nos dias 21 e 22 de agosto, no WTC, em São Paulo. Participarão desse painel:
Camila Guimarães, gestora de proteção de dados e IA, Opice Blum Advogados
Leandro Bissoli, sócio, Peck Advogados
Mariana Rielli, codiretora executiva, Data Privacy Brasil
Natalia Marroni, pesquisadora do Think Tank, Abes
Rafael Pellon, sócio, Pellon de Lima Advogados
A agenda completa e mais informações sobre o evento estão disponíveis em www.botsexperience.com.br