Skip to content

O enviesamento racial do algoritmo do Twitter aponta para um problema tecnológico maior

6 de abril de 2021

Principais vantagens

  • O Twitter espera remediar o que os usuários estão chamando de preconceito racial em seu software de visualização de imagens.
  • A chamada do gigante da tecnologia pode ser o reconhecimento cultural de que a indústria precisa para lidar com questões de diversidade.
  • A falta de diversidade da tecnologia está prejudicando a eficácia de seus avanços tecnológicos.

Jaap Arriens / NurPhoto via Getty Images

O Twitter está prestes a lançar uma investigação sobre seu algoritmo de corte de imagens depois que ele se tornou um tópico de tendência que gerou um grande debate sobre questões de diversidade na indústria de tecnologia. O rolo compressor da mídia social ganhou as manchetes depois que os usuários descobriram um aparente preconceito racial em seu algoritmo de visualização de imagens. A descoberta aconteceu depois que o usuário do Twitter Colin Madland usou a plataforma para denunciar o fracasso da Zoom em reconhecer seus colegas negros que usaram a tecnologia de tela verde, mas em uma grande demonstração de ironia, ele descobriu que o algoritmo de corte de imagens do Twitter se comportava de maneira semelhante e desprezava os rostos negros. “Certamente, é um grande problema para qualquer minoria, mas acho que há um problema muito mais amplo também.” Outros usuários aderiram à tendência, gerando uma série de tweets virais que mostram que o algoritmo prioriza de forma consistente os rostos brancos e de pele mais clara, variando de pessoas a personagens de desenhos animados e até cachorros. Essa falha é indicativa de um movimento cultural maior na indústria de tecnologia que tem falhado sistematicamente em levar em conta os grupos minoritários, o que se espalhou para o lado técnico. “Faz com que as minorias se sintam terríveis, como se não fossem importantes, e pode ser usado para outras coisas que podem causar danos mais sérios no futuro”, disse Erik Learned-Miller, professor de ciência da computação da Universidade de Massachusetts, em uma entrevista por telefone. “Depois de decidir para que um pedaço de software pode ser usado e todos os danos que podem ocorrer, começamos a falar sobre as maneiras de minimizar a chance de que isso aconteça.”

Canário na linha do tempo

O Twitter usa redes neurais para cortar automaticamente as imagens incorporadas aos tweets. O algoritmo deve detectar faces a serem visualizadas, mas parece ter um viés branco perceptível. A porta-voz da empresa, Liz Kelley, tuitou uma resposta a todas as preocupações.

Kelley twittou: “Obrigado a todos que levantaram isso. Testamos o preconceito antes de enviar o modelo e não encontramos evidências de preconceito racial ou de gênero em nossos testes, mas está claro que temos mais análises para fazer. abra o código do nosso trabalho para que outros possam revisar e replicar. ” Co-autor do artigo “Tecnologias de reconhecimento facial na natureza: uma chamada para um escritório federal”, Learned-Miller é um pesquisador líder sobre os excessos do software de aprendizagem de IA baseado na face. Ele vem discutindo o potencial impacto negativo do software de aprendizagem de imagem há anos e falou sobre a importância de criar uma realidade onde esses preconceitos sejam mitigados da melhor maneira possível. Muitos algoritmos para tecnologia de reconhecimento facial usam conjuntos de referência para dados, geralmente conhecidos como conjuntos de treinamento, que são uma coleção de imagens usadas para ajustar o comportamento do software de aprendizagem de imagens. Em última análise, permite que a IA reconheça prontamente uma ampla variedade de faces. No entanto, esses conjuntos de referência podem carecer de um conjunto diversificado, levando a problemas como os vividos pela equipe do Twitter. “Certamente, é um grande problema para qualquer minoria, mas acho que há um problema muito mais amplo também”, disse Learned-Miller. “Isso está relacionado à falta de diversidade no setor de tecnologia e à necessidade de uma força reguladora centralizada para mostrar os usos adequados desse tipo de software poderoso, sujeito ao mau uso e abuso.”

Tecnologia sem diversidade

O Twitter pode ser a empresa de tecnologia mais recente do setor, mas isso está longe de ser um problema novo. O campo da tecnologia continua sendo um campo predominantemente branco, perpetuamente dominado por homens, e os pesquisadores descobriram que a falta de diversidade causa uma replicação de desequilíbrios históricos e sistêmicos no software desenvolvido. Em um relatório de 2019 do AI Now Institute da Universidade de Nova York, os pesquisadores descobriram que os negros representam menos de 6% da força de trabalho nas principais empresas de tecnologia do país. Da mesma forma, as mulheres representam apenas 26 por cento dos trabalhadores no campo – uma estatística inferior à sua participação em 1960. “Isso faz as minorias se sentirem péssimas, como se não fossem importantes, e pode ser usado para outras coisas que podem causar problemas mais graves prejudicar ao longo da linha. ” Superficialmente, essas questões representacionais podem parecer banais, mas, na prática, o dano causado pode ser profundo. Pesquisadores do relatório do AI Now Institute sugerem que isso está causalmente relacionado a problemas com o software, muitas vezes não levando em consideração as populações não brancas e não masculinas. Quer se trate de dispensadores de sabonete infravermelho falhando em detectar pele mais escura ou o software de IA da Amazon falhando em diferenciar os rostos femininos daqueles de seus colegas masculinos, uma falha em abordar a diversidade na indústria de tecnologia leva a uma falha da tecnologia para lidar com um mundo diverso. “Há muitas pessoas que não pensaram sobre os problemas e realmente não percebem como essas coisas podem causar danos e como esses danos são significativos”, sugeriu Learned-Miller sobre o aprendizado de imagens de IA. “Felizmente, esse número de pessoas está diminuindo!”