Como já abordado em outras edições, a regulamentação da inteligência artificial está em nosso radar. Estamos atentos a cada movimentação do projeto de lei da IA, o PL 2.338/2023, que busca estabelecer diretrizes para o uso responsável da inteligência artificial (IA) no Brasil. Como o projeto de lei avançou no Congresso ao apagar das luzes do recesso do poder legislativo, vamos tratar aqui dos principais pontos do tema para você ficar a par do assunto.
Em dezembro de 2024 o Senado aprovou o projeto que regulamenta a inteligência artificial (IA) no Brasil. A matéria segue agora para a análise da Câmara dos Deputados. O texto se apresenta como um marco regulatório com regras para o desenvolvimento e o uso de sistemas de IA. Nesta nova versão,o texto traz os dispositivos específicos para prever a proteção dos direitos dos criadores de conteúdo e obras artísticas.
Com a nova versão aprovada pelo Senado, foram trazidas alterações significativas em relação à proposta original, por exemplo, algumas mudanças flexibilizam exigências para empresas e startups, enquanto outras reforçam a governança e a fiscalização sobre sistemas considerados de alto risco.
Destacamos abaixo as principais mudanças trazidas pelo novo texto:
A regulamentação da inteligência artificial traz uma nova abordagem sobre quem deve fiscalizar:
O texto original previa a criação de um órgão regulador exclusivo para IA. O Senado modificou esse ponto, transferindo a fiscalização para órgãos já existentes, como a ANPD, Banco Central, Cade e Anatel, conforme a aplicação da IA no setor específico. Com relação a essa mudança, percebemos:
- Vantagem: Reduz custos administrativos e evita a criação de uma nova entidade estatal.
- Desvantagem: Pode gerar sobreposição de competências entre diferentes órgãos, dificultando a harmonização regulatória.
Abordagem Baseada no Risco:
A adoção de uma classificação de IA por risco alinha o Brasil a regulamentos internacionais, especialmente ao AI Act da União Europeia. Com isso, o texto aprovado:
- Garante maior flexibilidade para inovações de baixo risco (exemplo: chatbots e assistentes virtuais).
- Exige auditoria e fiscalização rigorosa para IA de alto risco, como aquelas usadas em segurança pública e diagnósticos médicos
- Pode gerar desafios na definição exata do nível de risco para cada tecnologia, o que exigirá regulamentação posterior.
Com a regulamentação da inteligência artificial, as regras de responsabilidade civil foram refinadas para:
O texto original previa uma responsabilização ampla das empresas por danos causados por IA. O Senado ajustou esse ponto para considerar o papel específico de cada agente:
- Desenvolvedores de IA serão responsáveis pela criação de sistemas seguros.
- Empresas que usam IA serão responsáveis pela aplicação indevida ou falhas na implementação.
- Usuários finais poderão ser responsabilizados caso utilizem a IA de maneira ilícita.
Essa mudança reduz riscos para startups e pequenas empresas, evitando que sejam punidas por falhas fora de seu controle.
Proteção de Dados e Conformidade com a LGPD:
O novo texto removeu disposições sobre proteção de dados que entravam em conflito com a Lei Geral de Proteção de Dados (LGPD). Agora, a regulamentação da IA se integrará às regras já existentes de proteção de dados. Isso evita insegurança jurídica e garante que a ANPD tenha papel central na fiscalização de sistemas de IA que processam dados pessoais.
Penalidades e Incentivos à Conformidade:
O Senado ajustou as penalidades para tornar o cumprimento das regras mais gradual. O novo texto prevê:
- Advertência e prazo para ajuste antes da aplicação de multas.
- Penalidades proporcionais ao porte da empresa e à gravidade da infração.
- Multas apenas para violações graves, seguindo o modelo da LGPD.
Isso incentiva empresas a se ajustarem voluntariamente, ao invés de apenas punir sem permitir correções.
Se você tem dúvidas sobre como se adequar à LGPD, confira nosso artigo sobre a coleta de dados e adequação à LGPD aqui.
Direitos autorais
Sobre o tema, o texto estabelece que conteúdos protegidos por direitos autorais poderão ser utilizados em processos de “mineração de textos” para o desenvolvimento de sistemas de IA por instituições de pesquisa, de jornalismo, museus, arquivos, bibliotecas e organizações educacionais. No entanto, o material precisa ser obtido de forma legítima e sem fins comerciais. Além disso, o objetivo principal da atividade não pode ser a reprodução, exibição ou disseminação da obra usada, e a sua utilização deve se limitar ao necessário para alcançar a finalidade proposta — e os titulares dos direitos não podem ter seus interesses econômicos prejudicados injustificadamente. O titular de direitos autorais poderá proibir o uso de conteúdos de sua propriedade nas demais hipóteses.
O texto também prevê que o uso de conteúdos protegidos por direitos autorais em processos de mineração, treinamento e desenvolvimento de sistemas de inteligência artificial disponibilizados comercialmente dará direito de remuneração aos titulares dos respectivos direitos.
Já o uso de imagem e voz de pessoas por sistemas de IA deverá respeitar os direitos da personalidade, conforme previstos no Código Civil.
Isso significa que qualquer utilização desse material precisa de consentimento prévio e não pode causar danos à honra, à reputação ou à intimidade das pessoas. A violação dessas garantias pode resultar em ações judiciais e pedidos de indenização.
Com base nas últimas alterações, podemos concluir que o texto aprovado pelo Senado equilibra inovação e proteção de direitos, ao mesmo tempo que flexibiliza obrigações para empresas de menor porte. A adoção de um modelo baseado no risco, similar ao europeu, melhora a previsibilidade para o mercado e regulações futuras.
O projeto de regulamentação da IA é um passo importante para garantir o uso ético e responsável da tecnologia no Brasil. No entanto, sua implementação trará desafios para empresas e reguladores, exigindo maior adaptação às novas exigências. A tramitação na Câmara pode trazer ajustes, especialmente em pontos como responsabilidade civil, fiscalização e impactos sobre pequenas empresas.
No entanto, ainda existem desafios, como:
- Evitar sobreposição de competências entre órgãos reguladores.
- Especificar melhor os critérios de classificação de risco.
- Garantir que pequenas empresas consigam cumprir as exigências sem custos excessivos.
Enquanto não temos uma lei para regulamentar o assunto, é essencial contar com a ajuda de profissionais qualificados para apoiá-los na governança da IA, desde a fase da criação até homologação da tecnologia, pois uma série de riscos devem ser mitigados para que a tecnologia não fere direitos dos cidadãos.
A aplicação de normas como a ISO 42001, que trata do sistema de gestão para inteligência artificial e frameworks como o ALTAI (Assessment List for Trustworthy AI) criado pela Comissão Europeia para ajudar a avaliar se o sistema de IA que está sendo desenvolvido, são essenciais para manter a tecnologia competitiva e adequada aos direitos dos cidadãos, então conte conosco para apoiá-los nesta etapa e agregar valor e governança ao seu negócio.
Você também pode fazer uma leitura rápida sobre a regulamentação da inteligência artificial através da nossa tabela resumo:
Tema | Texto Anterior do PL 2.338/2023 | Texto Aprovado pelo Senado | Impacto Jurídico |
Modelo Regulatória | Criava uma autoridade específica para IA para fiscalizar o setor. | Transferiu a regulação para órgãos já existentes, como a ANPD (Autoridade Nacional de Proteção de Dados) e outros reguladores setoriais. | Menos burocracia e custos administrativos, mas pode gerar fragmentação regulatória. |
Classificação de Risco | Seguia modelo amplo, com critérios menos específicos. | Adotou três categorias de risco (baixo, médio e alto), similar ao AI Act da UE. | A abordagem por risco proporciona segurança jurídica, mas pode gerar desafios na aplicação. |
Responsabilidade Civil | Empresas poderiam ser solidariamente responsáveis por danos causados por IA. | Manteve a responsabilidade, mas permitiu que desenvolvedores e usuários compartilhem responsabilidades conforme seu papel. | Redução do ônus sobre startups e pequenas empresas. |
Obrigatoriedade de Auditorias | Exigia auditoria e certificação prévia para todos os sistemas de IA. | Restringiu auditoria obrigatória apenas para IA de alto risco. | Reduz custo de conformidade para empresas, mantendo controle sobre sistemas críticos. |
Direitos dos Usuários | Exigia que qualquer sistema de IA tivesse transparência absoluta sobre decisões automatizadas. | Manteve transparência, mas flexibilizou para IA de baixo risco, exigindo explicações apenas quando impactar diretamente direitos fundamentais. | Equilibra proteção ao usuário com viabilidade técnica para empresas. |
Proteção de Dados | Criava regras específicas de proteção de dados para IA, diferentes da LGPD. | Unificou as regras com a LGPD, evitando conflitos normativos. | Garante coerência regulatória e evita insegurança jurídica. |
Penalidades e Sanções | Definia penalidades semelhantes às da LGPD, incluindo multas elevadas. | Manteve sanções, mas permitiu advertências e ajustes antes de multas para empresas que agirem de boa-fé. | Maior segurança para empresas e incentivo à conformidade voluntária. |
Entre em Contato
Para saber mais sobre este e outros temas relacionados à regulamentação da inteligência artificial e à LGPD, a equipe do Assis e Mendes possui especialistas prontos para atender às suas necessidades e de sua empresa. Entre em contato conosco pelo site www.assisemendes.com.br.
Sobre a autora
Fernanda Soares é advogada da equipe de Empresarial, Contratual, LGPD e Compliance do Assis e Mendes. Pós-graduada em Direito Processual Civil, Direito Civil e Empresarial, e especialista em Governança Corporativa, Compliance e Direito Digital pela Escola Paulista de Direito (EPD).