O novo cenário com a Inteligência Artificial

Regulamentação da Inteligência Artificial: Mudanças do PL Aprovado em Dezembro de 2024

24 de fevereiro de 2025

Como já abordado em outras edições, a regulamentação da inteligência artificial está em nosso radar. Estamos atentos a cada movimentação do projeto de lei da IA, o PL 2.338/2023, que busca estabelecer diretrizes para o uso responsável da inteligência artificial (IA) no Brasil. Como o projeto de lei avançou no Congresso ao apagar das luzes do recesso do poder legislativo, vamos tratar aqui dos principais pontos do tema para você ficar a par do assunto.

Em dezembro de 2024 o Senado aprovou o projeto que regulamenta a inteligência artificial (IA) no Brasil. A matéria segue agora para a análise da Câmara dos Deputados. O texto se apresenta como um marco regulatório com regras para o desenvolvimento e o uso de sistemas de IA. Nesta nova versão,o texto traz  os dispositivos específicos para  prever a proteção dos direitos dos criadores de conteúdo e obras artísticas. 

Com a nova versão aprovada pelo Senado, foram trazidas alterações significativas em relação à proposta original, por exemplo, algumas mudanças flexibilizam exigências para empresas e startups, enquanto outras reforçam a governança e a fiscalização sobre sistemas considerados de alto risco.

Destacamos abaixo as principais mudanças trazidas pelo novo texto: 

 

A regulamentação da inteligência artificial traz uma nova abordagem sobre quem deve fiscalizar:

O texto original previa a criação de um órgão regulador exclusivo para IA. O Senado modificou esse ponto, transferindo a fiscalização para órgãos já existentes, como a ANPD, Banco Central, Cade e Anatel, conforme a aplicação da IA no setor específico. Com relação a essa mudança, percebemos:

  • Vantagem: Reduz custos administrativos e evita a criação de uma nova entidade estatal.
  • Desvantagem: Pode gerar sobreposição de competências entre diferentes órgãos, dificultando a harmonização regulatória.

 

Abordagem Baseada no Risco:

A adoção de uma classificação de IA por risco alinha o Brasil a regulamentos internacionais, especialmente ao AI Act da União Europeia. Com isso, o texto aprovado:

  • Garante maior flexibilidade para inovações de baixo risco (exemplo: chatbots e assistentes virtuais).
  • Exige auditoria e fiscalização rigorosa para IA de alto risco, como aquelas usadas em segurança pública e diagnósticos médicos
  • Pode gerar desafios na definição exata do nível de risco para cada tecnologia, o que exigirá regulamentação posterior.


Com a regulamentação da inteligência artificial, as regras de responsabilidade civil foram refinadas para:

 O texto original previa uma responsabilização ampla das empresas por danos causados por IA. O Senado ajustou esse ponto para considerar o papel específico de cada agente:

  • Desenvolvedores de IA serão responsáveis pela criação de sistemas seguros.
  • Empresas que usam IA serão responsáveis pela aplicação indevida ou falhas na implementação.
  • Usuários finais poderão ser responsabilizados caso utilizem a IA de maneira ilícita.

Essa mudança reduz riscos para startups e pequenas empresas, evitando que sejam punidas por falhas fora de seu controle.


Proteção de Dados e Conformidade com a LGPD:

O novo texto removeu disposições sobre proteção de dados que entravam em conflito com a Lei Geral de Proteção de Dados (LGPD). Agora, a regulamentação da IA se integrará às regras já existentes de proteção de dados. Isso evita insegurança jurídica e garante que a ANPD tenha papel central na fiscalização de sistemas de IA que processam dados pessoais.

Penalidades e Incentivos à Conformidade:

O Senado ajustou as penalidades para tornar o cumprimento das regras mais gradual. O novo texto prevê:

  • Advertência e prazo para ajuste antes da aplicação de multas.
  • Penalidades proporcionais ao porte da empresa e à gravidade da infração.
  • Multas apenas para violações graves, seguindo o modelo da LGPD.

Isso incentiva empresas a se ajustarem voluntariamente, ao invés de apenas punir sem permitir correções.
Se você tem dúvidas sobre como se adequar à LGPD, confira nosso artigo sobre a coleta de dados e adequação à LGPD aqui.

 

Direitos autorais

Sobre o tema, o texto  estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de “mineração de textos” para o desenvolvimento de sistemas de IA por instituições de pesquisa, de jornalismo, museus, arquivos, bibliotecas e organizações educacionais. No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais. Além disso, o objetivo principal da atividade não pode ser a reprodução, exibição ou disseminação da obra usada, e a sua utilização deve se limitar ao necessário para alcançar a finalidade proposta — e os titulares dos direitos não podem ter seus interesses econômicos prejudicados injustificadamente. O titular de direitos autorais poderá proibir o uso de conteúdos de sua propriedade nas demais hipóteses.

O texto também prevê que o uso de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de inteligência artificial disponibilizados comercialmente dará direito de remuneração aos titulares dos respectivos direitos.

Já o uso de imagem e voz de pessoas por sistemas de IA deverá respeitar os direitos da personalidade, conforme previstos no Código Civil.

Isso significa que qualquer utilização desse material precisa de consentimento prévio e não pode causar danos à honra, à reputação ou à intimidade das pessoas. A violação dessas garantias pode resultar em ações judiciais e pedidos de indenização.

Com base nas últimas alterações, podemos concluir que o texto aprovado pelo Senado equilibra inovação e proteção de direitos, ao mesmo tempo que flexibiliza obrigações para empresas de menor porte. A adoção de um modelo baseado no risco, similar ao europeu, melhora a previsibilidade para o mercado e regulações futuras.

O projeto de regulamentação da IA é um passo importante para garantir o uso ético e responsável da tecnologia no Brasil. No entanto, sua implementação trará desafios para empresas e reguladores, exigindo maior adaptação às novas exigências. A tramitação na Câmara pode trazer ajustes, especialmente em pontos como responsabilidade civil, fiscalização e impactos sobre pequenas empresas.

No entanto, ainda existem desafios, como:

  • Evitar sobreposição de competências entre órgãos reguladores.
  • Especificar melhor os critérios de classificação de risco.
  • Garantir que pequenas empresas consigam cumprir as exigências sem custos excessivos.

Enquanto não temos uma lei para regulamentar o assunto, é essencial contar com a ajuda de profissionais qualificados para apoiá-los na governança da IA, desde a fase da criação até homologação da tecnologia, pois uma série de riscos devem ser mitigados para que a tecnologia não fere direitos dos cidadãos. 

A aplicação de normas como a ISO 42001, que trata do sistema de gestão para inteligência artificial  e frameworks como o ALTAI (Assessment List for Trustworthy AI) criado pela Comissão Europeia para ajudar a avaliar se o sistema de IA que está sendo desenvolvido, são  essenciais para manter a tecnologia competitiva e adequada aos direitos dos cidadãos, então conte conosco para apoiá-los nesta etapa e agregar valor e governança ao seu negócio.

 

Você também pode fazer uma leitura rápida sobre a regulamentação da inteligência artificial através da nossa tabela resumo:

Tema Texto Anterior do PL 2.338/2023 Texto Aprovado pelo Senado Impacto Jurídico
Modelo Regulatória Criava uma autoridade específica para IA para fiscalizar o setor. Transferiu a regulação para órgãos já existentes, como a ANPD (Autoridade Nacional de Proteção de Dados) e outros reguladores setoriais. Menos burocracia e custos administrativos, mas pode gerar fragmentação regulatória.
Classificação de Risco Seguia modelo amplo, com critérios menos específicos. Adotou três categorias de risco (baixo, médio e alto), similar ao AI Act da UE. A abordagem por risco proporciona segurança jurídica, mas pode gerar desafios na aplicação.
Responsabilidade Civil Empresas poderiam ser solidariamente responsáveis por danos causados por IA. Manteve a responsabilidade, mas permitiu que desenvolvedores e usuários compartilhem responsabilidades conforme seu papel. Redução do ônus sobre startups e pequenas empresas.
Obrigatoriedade de Auditorias Exigia auditoria e certificação prévia para todos os sistemas de IA. Restringiu auditoria obrigatória apenas para IA de alto risco. Reduz custo de conformidade para empresas, mantendo controle sobre sistemas críticos.
Direitos dos Usuários Exigia que qualquer sistema de IA tivesse transparência absoluta sobre decisões automatizadas. Manteve transparência, mas flexibilizou para IA de baixo risco, exigindo explicações apenas quando impactar diretamente direitos fundamentais. Equilibra proteção ao usuário com viabilidade técnica para empresas.
Proteção de Dados Criava regras específicas de proteção de dados para IA, diferentes da LGPD. Unificou as regras com a LGPD, evitando conflitos normativos. Garante coerência regulatória e evita insegurança jurídica.
Penalidades e Sanções Definia penalidades semelhantes às da LGPD, incluindo multas elevadas. Manteve sanções, mas permitiu advertências e ajustes antes de multas para empresas que agirem de boa-fé. Maior segurança para empresas e incentivo à conformidade voluntária.

 

Entre em Contato

Para saber mais sobre este e outros temas relacionados à regulamentação da inteligência artificial e à LGPD, a equipe do Assis e Mendes possui especialistas prontos para atender às suas necessidades e de sua empresa. Entre em contato conosco pelo site www.assisemendes.com.br.

Sobre a autora

Fernanda Soares é advogada da equipe de Empresarial, Contratual, LGPD e Compliance do Assis e Mendes. Pós-graduada em Direito Processual Civil, Direito Civil e Empresarial, e especialista em Governança Corporativa, Compliance e Direito Digital pela Escola Paulista de Direito (EPD).

Compartilhe:

Mais Artigos

Plataformas e Marketplaces de Games: O Papel dos Termos de Uso, Política de Privacidade e Compliance Regulatória

O mercado de games tem se tornado cada vez mais complexo, com uma enorme variedade de plataformas e marketplaces que facilitam a venda, distribuição e troca de jogos digitais. As …

Licenciamento de Propriedade Intelectual em Jogos: Riscos e Oportunidades para Estúdios e Publishers

A indústria de games movimenta bilhões de dólares globalmente e se consolida como uma das mais expressivas manifestações culturais e econômicas contemporâneas. No centro dessa cadeia de valor estão os …

Investimento em Estúdios de Games: Como Estruturar Juridicamente Sem Perder o Controle Criativo

Nos últimos anos, a indústria de games tem experimentado um crescimento exponencial. Estúdios de jogos, tanto independentes quanto de maior porte, buscam constantemente formas de financiar seus projetos, seja para …

IA e Games: implicações jurídicas da geração automatizada de conteúdo

A adoção de inteligência artificial (IA) pela indústria de games não é mais tendência: é realidade. Do design procedural de mundos à criação de personagens não jogáveis (NPCs) com comportamento …

Infraestrutura Digital para Jogos Games: Cláusulas Contratuais em Serviços de Servidores e Cloud

No universo dos jogos digitais, a infraestrutura tecnológica é um dos pilares fundamentais para garantir uma experiência de qualidade para os usuários. Estúdios de jogos dependem de servidores robustos, serviços …

Games como Serviço (GaaS): Desafios Jurídicos e Regulatórios do Modelo

O conceito de Games como Serviço (GaaS) tem se consolidado como uma das principais tendências da indústria de games. Ao contrário do modelo tradicional de jogos, em que o produto …

Entre em contato

Nossa equipe de advogados altamente qualificados está pronta para ajudar. Seja para questões de Direito Digital, Empresarial ou Proteção de Dados estamos aqui para orientá-lo e proteger seus direitos. Entre em contato conosco agora mesmo!

Inscreva-se para nossa NewsLetter

Assine nossa Newsletter gratuitamente. Integre nossa lista de e-mails.