Blog Naiara com Elas – O esmalte nude e a injustiça algorítmica: Está na hora de rediscutirmos os padrões

Neste artigo, explico porque temos que repensar urgentemente, especialmente com a propagação de tecnologias para quase tudo, o que estamos levando em consideração como parâmetro, como base de nossa sociedade

Por Naiara Bertão, Valor Investe — São Paulo – 19/12/2020

Esta semana eu trago a vocês um assunto quente e importante: a rediscussão urgente dos nossos padrões, nossos parâmetros básicos. No mercado da moda e beleza, por exemplo, já tem algum tempo que estamos reivindicando, como sociedade diversa e plural, uma revisão do que é considerado belo, a ampliação da representatividade da população e o fim dos padrões de beleza do “alto-magro-branco-olhos-claros”. Vemos avanços significativos estampados nas capas de revistas e em comerciais de televisão, mas uma cor de esmalte mostra que ainda temos muito caminho pela frente.

Nude. Você já ouviu falar do esmalte “nude”? Você, como eu, já pediu à manicure que passasse “nude” nas suas unhas? E você já parou para olhar quais os tons disponíveis de “nude”? Em teoria, o nude é a cor da pele, não? Mas pele de quem? Quase todas as variações de nudes são “rosinhas”, “palha” ou “begezinho”, enquanto a paleta de cores de pele dos brasileiros é muito mais extensa e muito mais diversa. E a maioria da população – segundo o IBGE, 56,10% dos brasileiros – se declara negra, grupo que reúne pretos e pardos.

Eu, branca, loira e de olhos azuis, demorei anos da minha vida para perceber como a falta de representatividade é algo tão intrínseco na sociedade. Eu nunca tive dificuldade em me encaixar no padrão ocidental e preconceituoso de beleza e muito menos questionei se as Barbies e bonecas com as quais brinquei me representavam (porque elas já eram parecidas comigo). Mas elas não representam a maioria das meninas e meninos do Brasil. Um vídeo me fez abrir os olhos para muita coisa e me cortou a alma – não apenas o coração. Sugiro todas assistirem:

São raros ainda os momentos e casos em que nós, internamente ou em voz alta, questionamos os padrões invisíveis que nos cercam. A cor das bonecas é um deles. A cor do esmalte (e como ele é chamado) é outro. E agora, com o advento da tecnologia, estamos imputando dados de um padrão racista e preconceituoso em mais setores e atividades da nossa vida.

Você já ouviu falar de injustiça algorítmica?

Injustiça algorítmica

Quando falamos de sistemas computacionais que conseguem rapidamente processar informações e tomar decisões seguindo um padrão previamente “combinado” com o software é um algoritmo. Os algoritmos são feitos de códigos de programação, que se alimentam de base de dados.

O Facebook, por exemplo, indica um amigo seu para você marcar nas fotos porque, a partir da leitura das fotos de seus amigos, consegue identificar quem é aquele. O Google e o Gmail conseguem completar suas frases automaticamente porque ele sabe, por meio de uma ampla base de dados de pesquisas e escritas salvas em seus bancos de dados, que aquela é a combinação de palavras mais comum para você.

Os algoritmos hoje nos ajudam a encontrar um par para um encontro, um apartamento novo com seus gostos, um filme no streaming que tem “a nossa cara” e também são usados para conceder ou não crédito a pessoas, decidir qual a taxa de juros cobrar, selecionar candidatos em um processo seletivo concorrido para serem entrevistados e ainda identificar se uma pessoa é foragida.

Sem dúvida as tecnologias vieram para melhorar nossas vidas. Com elas ganhamos eficiência, facilita nossas atividades e nos torna mais produtivas(os), liberando energia e tempo para fazermos outras coisas. Mas há um preço. E este preço não sou eu que estou pagando, mas as pessoas que são menos representadas nos dados que são usados como base para os algoritmos trabalharem.

Esses dados são feitos por nós, por nossos preconceitos e por nossa falta de inclusão, que coletamos durante anos, décadas e séculos e simplesmente declaramos como padrão. Os nossos bancos de dados – difícil generalizar, claro -, mas boa parte com certeza, são injustos. Eles estão recheados de vários vieses e acabam, em muitos casos, por reforçar ainda mais as injustiças sociais e a desigualdade.

Em 2018, especialistas em machine learning trouxeram à luz um caso emblemático: o sistema de recrutamento da gigante do varejo Amazon não gostava de mulheres. O programa, desenvolvido em 2014, revisava currículos, uma tentativa da empresa de automatizar a busca por novos talentos. Isso acontecia particularmente em vagas de tecnologia e desenvolvimento de software, áreas que são majoritariamente masculinas, por enquanto. A suspeita de porque elas eram preteridas pelo robô está na base de dados, que possivelmente só tinha padrões de homens trabalhando nessas profissões.

No fim de 2019, foi a vez de dois empreendedores e programadores compartilharem no Twitter algo difícil de entender. David Heinemeier Hansson, desenvolvedor da multiplataforma Ruby on Rails, se queixou que a esposa, apesar de ter uma nota de crédito (score de crédito) maior que ele, e compartilhar o Imposto de Renda e a propriedade, tinha um limite 20 vezes menor do que o marido no cartão de crédito Apple Card.

Steve Wozniak, cofundador da Apple, se solidarizou com ele e explicou que o mesmo havia acontecido com ele e sua esposa, que, mesmo tendo a mesma conta bancária, mesmos cartões de créditos em outros bancos e compartilharem todos os demais ativos financeiros, o limite dela no Apple Card era 10 vezes menor que o dele. O Goldman Sachs, banco que administra o Apple Card foi chamado a dar explicações e tudo mais.

Esses são alguns exemplos apenas. Há uma forte discussão em nível mundial sobre o uso de tecnologias para reconhecimento de pessoas, em especial, criminosos e fugitivos. Já se escuta sobre casos de pessoas, em grande parte negras, sendo apontadas por robôs como criminosas de crimes que não cometeram. Erros algorítmicos (se quiser saber mais, assista a uma live que indico no fim).

É culpa de quem?

Daria para culpar quem por este tipo de situação? O que os especialistas no tema dizem é que o problema central dos algoritmos é a base de dados que eles processam. Mas não dá para supor que não haja nenhuma interferência dos programadores que alimentam ou criam essas bases. Possivelmente não de forma intencional, mas com certeza há vieses, padrões tendenciosos que são repetidos.

Da mesma forma, as máquinas também podem tirar conclusões sem fazer perguntas explícitas ou mais detalhadas. Exemplo: discriminar entre homens e mulheres, apesar de não pedir informações de gênero.

Na reportagem da BBC sobre o caso da Apple Card, Rachel Thomas, diretora do USF Center for Applied Data Ethics de São Francisco, diz que há variáveis latentes (“latent variables”), ou seja, mesmo que a cor da pele, raça ou gênero não sejam informações avaliadas pelo algoritmo diretamente, ainda pode haver fatores tendenciosos. O exemplo que ela dá é que, mesmo sem saber o gênero de alguém, ao saber qual sua profissão já dá para entender a probabilidade de ser homem ou mulher pelos dados de dominância da indústria.

Nós priorizamos o que já temos como padrão e acabamos reforçando o status quo. Isso significa menos mulheres recebendo dinheiro para suas startups, empreendedoras tendo pedidos de crédito negados, representatividade feminina menor nas fases finais dos processos seletivos e nos quadros de funcionários das empresas, taxas de juros mais caras para mulheres, e por aí vai.

Um olhar mais atento nos leva a perceber como isso, inconscientemente na maioria dos casos, está permeado em nós. A falta de representatividade é mais profunda do que se acha.

Como prevenir e evitar injustiças algorítmicas

O que fazer? Revisar e repensar as informações com as quais estamos realimentando os algoritmos, incluindo uma representatividade maior de dados, com certeza é uma ação importante. Previamente fazer coletas de dados que de fato represente a sociedade em que vivemos é ainda mais primário. Há uma discussão em nível acadêmico em diversas universidades sobre o assunto.

Outra é ser transparente, tanto com os critérios de escolhas quanto com feedbacks de respostas negativas: porque tal pessoa teve o crédito concedido ou não, ou porque passou ou não para a próxima etapa da concorrência por uma vaga.

Por fim, há uma rediscussão nossa, interna, e que devemos colocar pra fora, que são os parâmetros que tomamos como os “básicos”, os “neutros”, as “bases”, o “default”. Da cor de esmalte que escolhemos, ao que damos de presente a alguém, nós estamos contribuindo para um lado ou para o outro. E mais do que nunca precisamos questionar os padrões.

Quem estiver interessado em saber mais sobre o tema, eu indico escutar essa live promovida pelo AfrOya Tech Hub, hub de projetos para fomento de diversidade e inclusão de pessoas negras no ecossistema de tecnologia. Minutagem exata do painel sobre injustiça algorítmica: 1 hora, 18 minutos e 50 segundos.

Artigo publicado originalmente no Blog Naiara com Elas no Valor Investe

Deixe um comentário

Preencha os seus dados abaixo ou clique em um ícone para log in:

Logotipo do WordPress.com

Você está comentando utilizando sua conta WordPress.com. Sair /  Alterar )

Foto do Google

Você está comentando utilizando sua conta Google. Sair /  Alterar )

Imagem do Twitter

Você está comentando utilizando sua conta Twitter. Sair /  Alterar )

Foto do Facebook

Você está comentando utilizando sua conta Facebook. Sair /  Alterar )

Conectando a %s

Blog no WordPress.com.

Acima ↑

%d blogueiros gostam disto: