Skip to content

A New Age Restriction AI do YouTube preocupa a comunidade LGBTQ +

6 de abril de 2021

Principais vantagens

  • O software de restrição automática de idade do YouTube é motivo de preocupação para o conteúdo LGBTQ + na plataforma.
  • A empresa foi marcada por polêmicas em relação aos criadores de conteúdo LGBTQ + que cimentam as dúvidas.
  • Vieses no aprendizado de máquina dão crédito à ideia de que sua implementação imperfeita de filtros provavelmente restringirá o acesso injustamente.

Com um histórico de almejar injustamente criadores de conteúdo LGBTQ + em seu processo de moderação, a nova tecnologia baseada em IA do YouTube é vista como uma próxima etapa preocupante para o gigante da tecnologia. No blog oficial do YouTube na semana passada, a plataforma de compartilhamento de vídeos revelou planos de lançar um novo software automático para “aplicar mais consistentemente restrições de idade” em vídeos considerados inadequados para os telespectadores mais jovens. Motivado por preocupações recentes com crianças no aplicativo, o novo sistema é baseado em um software de inteligência artificial de aprendizado de máquina com a capacidade de dispensar moderadores humanos para um processo mais automático. O problema? Os sistemas automatizados do YouTube foram acusados ​​de destacar conteúdo e criadores LGBTQ + simplesmente por existirem. “Mesmo que não seja malicioso, o que eu não acho que seja, é uma falta de contribuição de diversas vozes – ou pelo menos uma falta de respeito.” “O aprendizado de máquina é informado e criado por humanos, e é possível ter esses preconceitos inerentes a ele ou aprendidos pela própria máquina”, disse YouTuber Rowan Ellis em uma entrevista por telefone com Lifewire. “Seu viés em relação a [LGBTQ+] o conteúdo ficou evidente nas experiências anteriores de [LGBTQ+] YouTubers, e eu não vi evidências de que algo foi feito para impedir que isso aconteça. ”

Querida, agora temos sangue ruim

Ellis é uma YouTuber que cria conteúdo educacional com vocação feminista e queer e, em 2017, publicou um vídeo no modo restrito da empresa. Como uma incursão inicial na moderação automática de conteúdo, este modo permitia aos usuários pré-selecionar opcionalmente “conteúdo potencialmente adulto” a partir de sugestões e recomendações de pesquisa.

Com mais de 100.000 visualizações, ela acredita que houve um esforço consciente para impedir que seu canal fosse restrito devido à sua oposição vocal contra os excessos do novo passo do YouTube em direção à moderação. Outros usuários da plataforma não tiveram tanta sorte e fizeram o YouTube saber disso. Uma ação coletiva contra o YouTube foi movida em agosto de 2019 por um grupo de oito criadores LGBTQ + que acusaram a empresa do Vale do Silício de restringir os produtores e conteúdo de vídeo queer e trans. O processo alega que o site usa “práticas ilegais de regulamentação, distribuição e monetização de conteúdo que estigmatizam, restringem, bloqueiam, desmonetizam e prejudicam financeiramente os Requerentes LGBT e a comunidade LGBT em geral”. Ainda está passando pelos tribunais da Califórnia. “O aprendizado de máquina é informado e criado por humanos, e é possível ter esses preconceitos inerentes a ele ou aprendidos pela própria máquina.” Em junho do mesmo ano, a plataforma recebeu uma enxurrada de atenção da mídia depois de se recusar a repreender rapidamente o popular comentarista conservador Steven Crowder por uma campanha de assédio homofóbica de meses de duração contra Vox jornalista e apresentador Carlos Maza. Isso consolidou o que Ellis disse ser um padrão com a plataforma online de ignorar os desafios únicos que os criadores queer enfrentam. A falta de fé dos criadores LGBTQ + na capacidade do YouTube de aparecer para eles tem seu mérito. “Não creio que tenham compreendido a necessidade de haver transparência em relação às questões sociais e garantia de igualdade”, disse ela. “Ainda existem crianças em todo o mundo que cresceram com a ideia de que ser gay é errado, e quando começarem a questionar essa crença, mas descobrirem que é fechada por uma busca segura ou restrição, isso vai reforçar essa ideia de que é errado, impróprio, adulto, perverso e sujo. ”

Falha na autoaprendizagem

Com sua história sórdida em relação aos criadores de conteúdo LGBTQ + em sua plataforma, a preocupação com a implementação da capacidade do software de aprendizado de máquina de discernir normas maiores ainda paira. Don Heider, diretor executivo do Markkula Center for Applied Ethics, sugere que o potencial para a loucura é um risco muito grande para se apostar. “É difícil acreditar que a IA pode controlar efetivamente o conteúdo de vários países com diferentes normas e padrões culturais”, escreveu ele em uma entrevista por e-mail. “A IA é frequentemente vista como a resposta a questões complexas. Neste ponto, a IA e a maneira como é criada lutam para lidar até mesmo com tarefas simples, sem falar em qualquer moderação de conteúdo com qualquer nível de complexidade.”

O YouTube decidiu usar a tecnologia de IA devido à falta de moderação consistente por moderadores humanos, de acordo com seu blog. Aumentar o uso de filtros computadorizados para remover vídeos considerados inadequados tornou-se a norma, e implementar os mesmos procedimentos para suas políticas de restrição de idade é visto como um próximo passo lógico. Por se tratar de uma empresa que busca melhorar gradativamente seus processos após longas críticas em relação ao relacionamento com o consumidor infantil, essa decisão não chega a surpreender. “Não creio que tenham compreendido a necessidade de haver transparência em relação às questões sociais e garantia de igualdade”. As crianças se tornaram um grupo demográfico importante para o site de compartilhamento de vídeos. Em agosto, a empresa de análise de vídeo digital Tubular descobriu que, além dos videoclipes, o conteúdo voltado para crianças estava no topo da lista de final de mês para os vídeos mais vistos no YouTube. O interesse da empresa em proteger essa lucrativa e emergente usina de controle da plataforma faz sentido. No entanto, as ferramentas usadas para fazer cumprir essa proteção continuam a ser desconfortáveis ​​para aqueles que já se encontraram a jusante dos procedimentos de moderação da empresa. “Minha preocupação é que isso vá causar muitos danos e não proteger [LGBTQ+] jovens que precisam de conteúdo informativo, franco e honesto que muitos [LGBTQ+] Os YouTubers podem fornecer, mas são sinalizados em seu sistema como inadequados “, disse Ellis.” Mesmo que não seja malicioso, o que eu não acho que seja, é uma falta de contribuição de diversas vozes – ou pelo menos uma falta de respeito . “Vemos isso o tempo todo na tecnologia. Quando você está olhando para o reconhecimento facial falhando em diferenciar diferentes rostos negros, ou quando olhamos para a medicina e vemos que a medicação só foi testada em um determinado sexo. Essas são conversas amplas e O YouTube não está isento disso. “