Skip to content

Como o preconceito algorítmico pode prejudicar adolescentes

19 de abril de 2021

Principais vantagens

  • O viés do algoritmo é prejudicial para adolescentes que passam muito tempo na Internet, dizem os especialistas.
  • Os usuários do Twitter encontraram recentemente um problema em que os rostos negros eram escolhidos em favor dos brancos.
  • O cérebro em desenvolvimento de adolescentes pode ser particularmente suscetível aos efeitos prejudiciais do viés algorítmico, dizem os pesquisadores.

Klaus Vedfelt / Getty Images

O preconceito embutido em alguma tecnologia, conhecido como viés algorítmico, pode ser prejudicial para muitos grupos, mas os especialistas dizem que é particularmente prejudicial para os adolescentes. O viés algorítmico, quando os sistemas de computador mostram resultados prejudicados, é um problema crescente. Os usuários do Twitter encontraram recentemente um exemplo de preconceito na plataforma quando um algoritmo de detecção de imagem que corta fotos estava cortando rostos negros em favor dos brancos.

A empresa pediu desculpas pelo problema, mas ainda não lançou uma correção. É um exemplo do preconceito que os adolescentes enfrentam quando entram na Internet, o que fazem mais do que qualquer outra faixa etária, dizem os especialistas. “A maioria dos adolescentes não sabe que as empresas de mídia social os têm para promover conteúdo específico que eles acham que os usuários vão gostar [in order] para fazê-los permanecer o maior tempo possível na plataforma “, disse a Dra. Mai-Ly Nguyen Steers, professora assistente da Escola de Enfermagem da Universidade de Duquesne que estuda o uso da mídia social entre adolescentes / estudantes universitários em uma entrevista por e-mail.”

Mesmo que haja algum nível de consciência sobre o algoritmo, o efeito de não obter curtidas e comentários suficientes ainda é poderoso e pode afetar a autoestima dos adolescentes “, acrescentou Steers.

Desenvolvimento de cérebros

O viés do algoritmo pode afetar os adolescentes de maneiras imprevistas, uma vez que seu córtex pré-frontal ainda está em desenvolvimento, explicou Mikaela Pisani, cientista-chefe de dados da Rootstrap, em uma entrevista por e-mail. “O efeito de não receber curtidas e comentários suficientes ainda é poderoso e pode afetar a autoestima dos adolescentes.” “Os adolescentes são especialmente vulneráveis ​​ao fenômeno da ‘Fábrica Social’, onde algoritmos criam grupos sociais em plataformas online, levando à ansiedade e depressão se as necessidades de aprovação social do adolescente não forem atendidas”, disse Pisani. “Os algoritmos são simplificados com base em dados imperfeitos anteriores – levando a uma representação excessiva de estereótipos às custas de abordagens mais diferenciadas para a formação de identidade.”

Do ponto de vista mais amplo, também devemos questionar, como sociedade, se queremos algoritmos que moldem nossos adolescentes ‘viagens para a idade adulta, e este sistema ao menos apóia em vez de sufocar o crescimento pessoal individual? ”

Por causa desses problemas, há uma necessidade crescente de manter os adolescentes em mente ao projetar algoritmos, dizem os especialistas. “Com base na contribuição de especialistas em desenvolvimento, cientistas de dados e jovens defensores, as políticas do século 21 em torno da privacidade de dados e design algorítmico também podem ser elaboradas com as necessidades específicas dos adolescentes em mente”, escreveu Avriel Epps-Darling, estudante de doutorado em Harvard recentemente.

“Se continuarmos a minimizar ou ignorar as maneiras pelas quais os adolescentes são vulneráveis ​​ao racismo algorítmico, os danos provavelmente reverberarão pelas gerações futuras.”

Combate ao preconceito

Até que haja uma solução, alguns pesquisadores estão tentando encontrar maneiras de diminuir os danos causados ​​aos jovens por algoritmos tendenciosos. “As intervenções têm se concentrado em fazer os adolescentes reconhecerem que seus padrões de mídia social estão impactando negativamente sua saúde mental e tentando criar estratégias para mitigar isso (por exemplo, reduzir o uso de mídia social)”, disse Steers. “Alguns dos estudantes universitários que entrevistamos indicaram que se sentem compelidos a gerar conteúdo para permanecerem ‘relevantes’, mesmo que não queiram sair ou postar”, ela continuou. “No entanto, eles sentem que precisam gerar conteúdo para manter suas conexões com seus seguidores ou amigos.”

A resposta final poderia ser remover o preconceito humano dos computadores. Mas, como os programadores são apenas humanos, esse é um desafio difícil, dizem os especialistas. Uma solução possível é desenvolver computadores descentralizados e programados para esquecer coisas que aprenderam, diz John Suit, diretor de tecnologia da firma de robótica KODA.

“Por meio de uma rede descentralizada, os dados e a análise desses dados estão sendo compilados e analisados ​​de vários pontos”, disse Suit em uma entrevista por e-mail. “Os dados estão sendo coletados e processados ​​não a partir de um único processamento mental de IA dentro dos limites de seu algoritmo, mas centenas ou mesmo milhares.” À medida que os dados são coletados e analisados, velhas “conclusões” ou dados supérfluos são esquecidos.

Por meio desse sistema, um algoritmo que pode ter começado com viés acabará corrigindo e substituindo esse viés caso se mostre errado. “Embora o viés possa ser um problema antigo, pode haver maneiras de combatê-lo, pelo menos online. Projeto computadores que eliminam nossos preconceitos é o primeiro passo.