O tema envolvendo as decisões automatizadas, atualmente inserido no contexto dos bancos de dados para formação de perfis de crédito (Lei n. 12.414/11, art. 5º, VI) e da proteção de dados pessoais (Lei n. 13.709/18, art. 20), resolve-se de forma direta quando observado o descumprimento das normas mencionadas, mediante um rápido exercício de raciocínio lógico.
A princípio não restariam contradições, pois a utilização de inteligência artificial para o tratamento de dados poderia sempre ser revista, bastando para tanto que se comprovasse que o referido tratamento ocorreu de forma exclusivamente automatizada.
Aqui, porém, surge um problema: Como comprovar que uma determinada interferência garante a lisura do processo? Um revisor de conteúdos que diariamente analise o funcionamento da ferramenta, por exemplo, garantiria o afastamento da figura do tratamento considerado automatizado?
A questão toma maior grau de complexidade quando consideramos que a administração pública tem se tornado um grande consumidor de tecnologia algorítmica, inclusive para o tratamento de dados e o desenvolvimento de políticas públicas. Como se dariam as revisões de dados tratados pelo Estado, sendo ele, Estado, o condutor da lei e consequentemente dos meios de se executarem tais revisões?
Em seu livro Automating inequality: How High-Tech Tools Profile, Police, and Punish the Poor, a professora de Ciência Política da Universidade de Albany, Virginia Eubanks, conseguiu comprovar cientificamente que a utilização da inteligência artificial pelo poder público tende a ser prejudicial às populações mais vulneráveis.
Compreendendo o gargalo do poder público brasileiro quanto ao desenvolvimento de políticas públicas (o próprio tema da proteção de dados é um exemplo), e o despreparo institucional e técnico para resolver tal questão, podemos já esperar que este venha a ser um ambiente que demandará muito ao Judiciário.
Mas ainda outro receio nos ronda. Já se discutiu no Brasil a possibilidade de utilização de algoritmos não somente para informatizar a estrutura do judiciário (como de fato tem acontecido), mas também para auxiliar na formação do convencimento de magistrados, buscando assim empreender celeridade no trâmite das ações.
Novamente podemos aprender com a experiência norte-amerciana. Lá, um sistema de algoritmo denominado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), gerou opiniões divergentes ao determinar o grau de periculosidade, e consequente o tempo de condenação de acusados, através da aplicação de um questionário que apresenta como resultado um numerário que vai de 0 a 10.
Muitos apoiadores afirmam que o algoritmo possui uma estrutura avançada, capaz de zerar equívocos. Em pesquisas realizadas, os resultados se mostraram inconclusivos, salientando que as decisões estariam equiparadas àquelas tomadas por seres humanos. Todavia, pesquisas como a realizada pela professora Eubanks, deram conta de que não só o Judiciário norte-americano, mas o convencimento de sua população como um todo, é viciado, comprometido, tendencioso a condenar muito mais negros e latinos se comparado ao número de brancos.
Aqueles que desenvolvem os algoritmos estariam assim condicionados ao entendimento geral de que negros e latinos são mais perigosos e merecem ser condenados, mesmo que não existam provas conclusivas contra eles. Talvez esta direção seja um dos motivos que fizeram novas pesquisas apontarem que o COMPAS pesa a mão nas penas para condenados oriundos de populações não-brancas.
O estado americano se defende justificando que adquire o sistema de um desenvolvedor particular, esse desenvolvedor, por sua vez, quando contestado judicialmente, alega ter o direito de não revelar o segredo comercial do seu negócio.
Assim, o que se percebe, é que o uso de inteligência artificial para decisões automatizadas pelo Estado ainda precisa ser muito debatido. Restam direitos conflitantes, pois, se por um lado devemos observar a ampla defesa e o contraditório, por outro devemos equacionar o direito que o desenvolvedor tem de não revelar o segredo comercial que garante a comercialização do seu produto.
Esse conflito, com outros direitos em cada um dos lados, certamente ocupará um ambiente legal brasileiro que tem passado a direcionar mais atenção aos temas da proteção de dados, do cadastro positivo e consequentemente da interferência oriunda das decisões automatizadas. Até lá, é importante que todos fiquem atentos ao tema e busquem assessoria jurídica especializada para casos específicos que envolvam decisões automatizadas via inteligência artificial.
Para mais informações sobre este e outros assuntos, a equipe do Assis e Mendes Advogados segue – em home office – à disposição para esclarecimentos.
Genival Souza Filho
LGPD2021@assisemendes.com.br