Por Rodrigo Sayeg
Redação Publicado em 22/02/2022, às 00h00 - Atualizado às 07h02
Por Rodrigo Sayeg
Semana passada, os leitores dessa coluna puderam ler um introito de um dos temas de pesquisa prediletos do Professor Ricardo Sayeg: A influência da inteligência artificial e seu impacto no direito.
Em seu texto, o professor apresentou brilhantemente o conflito entre a humanização ou desumanização do ramo jurídico por meio da inteligência artificial e os próximos desafios que a sociedade irá enfrentar, até mesmo oferecendo um “teaser” da solução.
Ocorre que, esse artigo me intrigou a discutir com você, caro leitor; será que já estamos tendo os reflexos dessa transformação?
A resposta simples é sim. Nós cada vez mais vemos o impacto da automatização do direito. Desde a excitação inicial com a possibilidade do Poder Judiciário Brasileiro se aparelhar de seu próprio Watson, ao Tribunal Superior do Trabalho fazendo uso uso do sistema Bem-te-Vi, de gerenciamento de processos judiciais que usa inteligência artificial e tem uma nova funcionalidade que permite a análise automática da tempestividade, ao Supremo Tribunal Federal que divulgou em 2018 o “Victor”, cujo nome é uma homenagem ao outrora Ministro Victor Nunes Leal, anunciado como “maior e mais complexo Projeto de IA do Poder Judiciário e, talvez, de toda a Administração Pública Brasileira”.
Ocorre que, conforme o Professor na semana passada já nos advertiu, existe uma séria preocupação quanto às implicações negativas do uso de inteligência artificial.
Especialmente porque, o sistema pode ser falho no sentido da qualidade do quanto produzido, chegando ao ponto de ser discriminatório.
De fato, nesta época de inovação tecnológica é fácil cairmos na armadilha de acreditarmos no mito da neutralidade dos sistemas implementados de inteligência artificial, os quais estariam isentos da influência de códigos pessoais, experiências de vida, e de identidades ideológicas ou religiosas.
Mas infelizmente o sistema não é infalível, já que a máquina não possui a mesma capacidade de julgamento do ser humano, sendo incapaz de fazer escolhas baseadas em um senso de moral ou ético. Sua autonomia é puramente tecnológica sendo que não possuem autonomia moral, não possuem vontade própria e permanecem subjugadas aos objetivos que damos a elas.
Todos os modelos de Machine Learning (processo utilizado para os sistemas de Inteligência Artificial serem programados) são cheios de vícios e enviesamentos, ou até mesmo preconceitos. Sendo que estes “preconceitos” são oriundos de bases de dados viciadas coletadas, sendo que estes dados obrigam as máquinas a agirem de acordo com os dados fornecidos.
Este fenômeno possui o nome de “dirty data”. Em tradução literal para o português, isso significa “dados sujos”, os quais contaminam um sistema de inteligência artificial.
Como contaminam? conforme Evandro Dalbem, cientista de dados da Cognitivo.ai, existe um ditado entre os profissionais de sua área para descrever essa situação. “Se estiver entrando lixo, vai sair lixo. Se você não fizer o preparo correto, não adianta ter um modelo supermoderno. Vai sair lixo”[1].
Temos como exemplo de sistemas corrompidos o algoritmo que estava a ser testado e funcionava como ferramenta de recrutamento da Amazon, o qual foi abandonado diante de seu nítido e inescusável preconceito em face de candidatas mulheres ou de outros gêneros. Agora imagine implementar um sistema parecido, em um país no qual infelizmente, até os dias de hoje, o preconceito, a discriminação e a marginalização social imperam? Vai sair muito lixo.
O Brasil pode se encontrar em uma situação precária quanto à efetiva garantia dos direitos de seus cidadãos em face de um sistema que será alimentado por dados sujos, e cuja problemática dificilmente poderá ser enfrentada, uma vez que tal tecnologia estaria protegida sob o manto de seu mito de neutralidade.
O primeiro passo para entendermos o “segredo” para resolver esse conflito, abordado no artigo do Professor Ricardo é encerrarmos esse mito e analisarmos efetivamente não só a natureza do sistema, mas a natureza dos dados que inserimos nele. Só assim, evitaremos de sermos escravos do algoritmo.
____________________
[1]MULLER, Leo, Entenda o que é “dirty data” e como isso atrapalha o desenvolvimento de IA, TecMundo, disponível em https://www.tecmundo.com.br/software/123935-entenda-dirty-data-atrapalha-o-desenvolvimento-ia.htm
Pastor manda nudes para amante e é promovido; entenda
Vídeo de Maria Flor viraliza e internautas detonam babá: "Brutalidade com a criança"
Luciana Gimenez relata assédio sexual durante sessão de fotos; confira os detalhes
Vídeo de Andressa Urach tatuando ânus vaza e frase é revelada; descubra
ONLYFANS - 7 famosas que entraram na rede de conteúdo adulto para ganhar dinheiro!
São Paulo amplia vacinação contra HPV para jovens até 19 anos
São Paulo registra calor recorde em maio; termômetros marcam 32,1°C
Fãs de Madonna terão 207 ônibus extras saindo de São Paulo para o Rio de Janeiro
Gravações da 2ª temporada Percy Jackson já tem data para começar; saiba quando
"Não sei se existe um ponto final"; diz Lucas Buda levantando dúvidas sobre o término com Camila