Atualizado às 13h14 do dia 21/09/2020 para incluir o posicionamento do Twitter
Em uma imagem que inclui uma pessoa negra e uma pessoa branca, qual é o rosto mais importante para ser exibido? Para o algoritmo do Twitter, o indivíduo branco é sempre a parte mais relevante da imagem. Na rede social, tem viralizado um teste que evidencia o destaque para cidadãos de pele clara em detrimento dos negros. O Twitter admitiu que precisa melhorar o modelo do algoritmo.
A cientista da computação Nina da Hora explica que o Twitter tem um enviesamento no algoritmo que corta os destaques das fotos. “O foco do algoritmo é a forma que ele corta, ele vai privilegiar imagens iluminadas, com uma certa saturação. Se a imagem tiver um fundo branco, por exemplo, ele vai pegar e vai extrair o rosto do fundo branco, faz uma operação e tenta analisar o rosto através do corte”, detalha.
“O Twitter faz o corte da imagem, imaginando o que ele acha que são os pontos principais da imagem. Então dependendo de como a imagem tenha sido tratada, vai privilegiar pessoas com cor clara, isso é fato”, acrescenta.
O professor do Departamento de Fotografia e Cinema da escola de Belas Artes da UFMG (Universidade Federal de Minas Gerais), André Mintz, explica que essa ação é problemática e poderia ser evitada deixando a ação de corte da imagem à cargo do próprio usuário. “O algoritmo reproduz exatamente a forma de comportamento da sociedade. O Twitter deixar que isso aconteça, sem uma testagem adequada para minimizar esse tipo de ocorrência, é grave. Seria preferível que os próprios usuários selecionassem o recorte”, afirma.
As máquinas reproduzem o racismo
Nina da Hora explica que o comportamento racista reproduzido por algoritmos está relacionado à falta de debate sobre o viés de modelos matemáticos. “O algoritmo é racista, porque ele não se autocria, alguém o projeta. Ele vai ter formato de quem está o desenvolvendo, com o modelo matemático que está sendo usado. Então, se a pessoa que está criando não tem consciência racial, nem de gênero, ela vai reproduzir um algoritmo ou uma máquina racista”, explica.
Para a cientista, é importante que as pessoas parem de tratar a tecnologia como algo neutro. Segundo Nina, a discussão acaba ficando muito reduzida a códigos e modelos matemáticos. “De 2017 para cá, a gente viu o tanto que os algoritmos interferiram na política, o quanto interferiram na religião e como eles interferem no nosso dia a dia. Não há um debate que saia da bolha matemática e que a gente consiga olhar e entender que, mesmo que tenham modelos matemáticos, já foram criados com enviesamento”, afirma.
A cientista da computação defende uma remodelagem dos modelos usados nas máquinas e algoritmos. “Usando bases de dados mais diversas, por exemplo. Porque a gente usa uma base de imagens que estão na web, se for visualizar essas imagens, em sua maioria são pessoas brancas, não tem pessoas asiáticas, não tem pessoas negras”, finaliza.
O que diz o Twitter?
Após a repercussão do comportamento racista do algoritmo, o Twitter concordou com a existência do viés e disse que irá buscar formas de corrigir esse resultado. “Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer”, escreveu.
O diretor de tecnologia do Twitter, Parag Agrawal, concordou que mais análises são necessárias e comemorou que tenha a oportunidade de aprender com os testes realizados pelos usuários. “Essa é uma questão muito importante”, garantiu.