No último dia 11 de março, o Conselho Nacional de Justiça (CNJ) estabeleceu, por meio da Resolução nº 615/2025, que complementa a Resolução nº 332 de 21/08/2020, a qual já dispõe sobre a ética, a transparência e a governança na produção e no uso de Inteligência Artificial no Poder Judiciário, novas regras para o uso da IA pelos tribunais. O objetivo da nova resolução é expandir o uso da IA pelo órgão, abordando questões práticas, inclusive estabelecendo que os tribunais podem desenvolver suas próprias tecnologias, que deverão seguir as diretrizes da nova resolução.
A ideia é complementar a Resolução CNJ nº 332/2020, formulada com foco em soluções computacionais destinadas a auxiliar na gestão processual e na efetividade da prestação jurisdicional disponíveis à época de sua elaboração. Agora, torna-se necessário atualizar esse normativo para abarcar novas tecnologias, em especial aquelas conhecidas como inteligências artificiais generativas, já que o desenvolvimento das soluções poderão ser realizadas pelos tribunais.
Avanços da IA no Poder Judiciário
E qual é o objetivo do CNJ ao complementar a última resolução publicada há 5 (cinco) anos? Com o tema IA em alta e considerando sua volatilidade, a implementação de novas tecnologias no Judiciário responde à crescente demanda por maior eficiência e celeridade processual. O uso da IA e de seus algoritmos inteligentes pode otimizar o trâmite de ações, reduzir gargalos administrativos e melhorar a gestão processual. Além disso, a ideia é contar com a IA para auxiliar na análise de padrões e tendências processuais, permitindo uma tomada de decisão mais embasada e estratégica.
Em resumo, agora o CNJ poderá desenvolver suas próprias tecnologias baseadas em IA. Por isso, a norma em questão é essencial, pois estabelece regras práticas para que o desenvolvimento seja seguro e livre de vieses discriminatórios, que são um dos principais desafios desta tecnologia.
Principais diretrizes da Resolução CNJ 615
Assim, a resolução 615 estabelece um conjunto de diretrizes para a implementação, governança, gestão de riscos e uso da IA na prática. Entre elas, destacam-se:
-
- Autonomia: Os tribunais do país poderão adotar práticas colaborativas no desenvolvimento de soluções de IA, podendo contar com mecanismos de incentivo, como reconhecimento público, premiações ou priorização de recursos e investimentos em inovação.
- Categorização dos Riscos: Cada tribunal será responsável por avaliar as soluções que utilizam técnicas de inteligência artificial, a fim de definir seu grau de risco conforme estipulado na resolução.
- Governança: Cada tribunal deverá desenvolver seus próprios processos internos de governança, incluindo a produção de relatórios de impacto e de funcionamento das tecnologias, além da implementação de ações educativas e instrutivas.
- Transparência: Os cidadãos deverão ser informados, de maneira clara e acessível, sobre o uso de IA nos processos judiciais.
- Auditoria: Todas as fases e implicações da IA serão auditadas e supervisionadas, incluindo a avaliação de algoritmos e dados tratados desde a concepção do sistema. Órgãos como o Ministério Público e a OAB poderão ter acesso aos relatórios de impacto, como forma de acompanhar e apoiar na mitigação de riscos.
- Supervisão humana: a IA deve ser um instrumento de apoio, sem substituir a decisão humana. A ideia é que a participação e a supervisão humana esteja presente em todas as etapas dos ciclos de desenvolvimento e de utilização das soluções que adotem técnicas de inteligência artificial, já que a IA será o auxiliar e não o protagonista!
- Segurança e proteção de dados: a IA deve observar a Lei Geral de Proteção de Dados (LGPD), os frameworks de segurança da informação e segurança cibernética, a Lei de Acesso à Informação, propriedade intelectual, além dos princípios basilares da Constituição Federal, pois todos os direitos dos cidadãos deverão ser respeitados. A ideia é garantir que as soluções de IA permaneçam em conformidade com os direitos fundamentais, e proceder a ajustes sempre que forem identificadas incompatibilidades.
- Mitigação de vieses discriminatórios: mecanismos devem ser implementados para evitar que algoritmos reforcem padrões discriminatórios.
- Uso restrito de dados sigilosos: é vedado o emprego de informações protegidas por segredo de justiça para o treinamento de modelos de IA.
- banimento da IA: Dispõe que, caso seja constatada a impossibilidade de eliminação do viés discriminatório da tecnologia, a solução de inteligência artificial deverá ser descontinuada.
- Autoridade máxima de supervisão: A resolução institui o Comitê Nacional de Inteligência Artificial do Judiciário para apoiar na supervisão das tecnologias.
Seguindo uma tendência global e com base no Projeto de Lei 2338/2023, que trata sobre o uso da Inteligência Artificial, o CNJ classificou as soluções de IA em alto risco e baixo risco, conforme sua finalidade e impacto no processo judicial. Quanto maior o risco, maiores serão as exigências de segurança e auditoria.
A regulamentação do CNJ segue uma tendência global e está alinhada ao Projeto de Lei 2338/2023, que define diretrizes para o uso da IA no Brasil. Saiba mais sobre as mudanças na legislação aqui: Regulamentação da Inteligência Artificial 2024
Exemplos de IA de Alto Risco:
São consideradas de alto risco as soluções de IA que podem influenciar diretamente a decisão judicial ou afetar direitos fundamentais. Entre essas aplicações, destacam-se:
- Identificação de perfis e padrões comportamentais, exceto em situações de risco mínimo ou controlado.
- Valoração de meios de prova, como documentos, testemunhos e perícias, caso possam afetar a decisão judicial.
- Interpretação e tipificação de crimes, salvo em atividades rotineiras da execução penal.
- Conclusão sobre a aplicação de normas jurídicas, incluindo quantificação e qualificação de danos.
- Autenticação biométrica e facial para monitoramento, salvo em casos de verificação de identidade ou segurança pública, sempre garantindo a observância dos direitos fundamentais.
Exemplos de IA de Baixo Riscos
Já as soluções de IA de baixo risco são aquelas destinadas a apoiar a administração judiciária sem comprometer a independência da decisão humana. Exemplos incluem:
- Atos processuais ordinatórios, como classificação de documentos e transcrição de atos processuais.
- Detecção de padrões decisórios para auxiliar na uniformização da jurisprudência, sem substituir a avaliação humana.
- Análises e relatórios jurimétricos, desde que não envolvam valoração de provas ou perfis pessoais.
- Geração de textos de apoio para atos judiciais, com supervisão e edição final pelo magistrado.
- Tarefas preparatórias de atividades de alto risco, sem alteração substancial do resultado.
- Análises estatísticas para políticas judiciárias, com supervisão humana para evitar vieses.
- Transcrição de áudio e vídeo, com revisão final por um responsável.
- Anonimização de documentos, em conformidade com normas de privacidade.
Impacto para os Tribunais e Adequação às Novas Regras
Por fim, a resolução também prevê que será aplicada de forma retroativa, obrigando as tecnologias já utilizadas pelos tribunais a seguirem todo o processo de governança da norma. Os tribunais terão um prazo de 12 meses para avaliar, adequar ou descontinuar as soluções de IA em uso, que não puderem se adequar a norma.
Podemos concluir que a Resolução CNJ 615 representa um avanço significativo na regulamentação da IA no Judiciário brasileiro. Seu objetivo é equilibrar inovação e segurança jurídica, garantindo que os benefícios da IA sejam usufruídos sem comprometer direitos fundamentais. A implementação dessas diretrizes contribuirá para um Judiciário mais ágil, justo e eficiente.
Se até o Judiciário está comprometido com o uso da IA de forma ética e segura, o que você está esperando para implementar uma governança de dados na sua organização? Lembre-se: tudo que não é avaliado apresenta alto risco!
Conte conosco nesse processo de adequação e governança!
Sobre a autora
Fernanda Soares é advogada da equipe de Empresarial, Contratual, LGPD e Compliance do Assis e Mendes. Pós-graduada em Direito Processual Civil, Direito Civil e Empresarial, e especialista em Governança Corporativa, Compliance e Direito Digital pela Escola Paulista de Direito (EPD).