Skip to content

Por que o Facebook precisa de regras mais claras para a desinformação

8 de abril de 2021

Principais vantagens

  • O Conselho de Supervisão do Facebook pediu regras de desinformação mais claras no site de mídia social.
  • Atualmente, o conselho derrubou várias decisões feitas pelo Facebook para remover postagens que considerava desinformação ou discurso de ódio, mas não eram realmente isso.
  • A necessidade de definições mais claras do que é e não é desinformação ou discurso de ódio é necessária, especialmente com o alcance internacional do Facebook.
Imagens Chesnot / Getty
O quadro de supervisão do Facebook, que foi criado para supervisionar ainda mais a remoção e moderação de postagens no site, anulou algumas decisões anteriores sobre postagens que foram removidas, iluminando a necessidade de definições e regras mais claras. O conselho de supervisão assumiu seus primeiros cinco casos em dezembro de 2020. Embora uma das postagens incluídas na revisão fosse dos Estados Unidos, no total as postagens vieram de quatro continentes diferentes, todos os quais podiam ver as declarações feitas de maneiras completamente diferentes. Por causa disso, as políticas que o Facebook coloca em ação precisam ser concisas e precisam trabalhar com qualquer comunidade em que as ferramentas de moderação possam estar se concentrando. “A atividade de ‘revisão independente’ do Facebook deve ser consistente além das fronteiras internacionais”, escreveu Jim Isaak, ex-presidente do Instituto de Engenheiros Elétricos e Eletrônicos e veterano de 30 anos na indústria de tecnologia, por e-mail. “Mas o que é ‘discurso de ódio’ nos Estados Unidos pode ser definido como patriótico em outras sociedades autocráticas – aumentando a complexidade do que é feito.”

Linhas na areia

Essa necessidade de consistência e regras mais concisas já está entrando em jogo. Dos cinco casos que o conselho de supervisão do Facebook assumiu em dezembro, o grupo decidiu anular quatro deles, com dois deles mostrando claramente a necessidade de melhor moderação. Em um dos casos revertidos, o conselho decidiu a favor de uma mulher cuja postagem no Instagram sobre câncer de mama foi removida do site automaticamente por violar sua política de nudez adulta e atividade sexual. Embora o Facebook já tenha restaurado a fotografia, o conselho mostrou objeções a que ela fosse removida. O conselho até recomendou que o Facebook implementasse um sistema de apelação que permitisse aos usuários ver quando uma postagem foi removida, por que foi removida e até mesmo sugerindo maneiras de falar com um ser humano para buscar uma solução.

O cofundador, presidente e CEO do Facebook, Mark Zuckerberg, testemunha antes de uma audiência combinada do Comitê Judiciário e de Comércio do Senado no Hart Senate Office Building, no Capitólio.

Alex Wong / Getty Images
O conselho descobriu que, embora a mulher tivesse compartilhado uma postagem que apresentava mamilos femininos descobertos e visíveis, a fotografia não violou as Diretrizes da comunidade do Instagram. O padrão de nudez e atividade sexual de adultos que o Facebook mantém em seus padrões de comunidade permite a nudez quando o usuário está tentando aumentar a conscientização por um motivo médico ou outra causa. Outra postagem, que foi compartilhada de Mianmar, incluiu linguagem sobre muçulmanos que o conselho disse que pode ser considerada ofensiva, mas não atingiu o nível de discurso de ódio para justificar sua remoção ou considerada contra as regras. É aqui que as coisas começam a ficar especialmente complicadas.

Qual é o caminho para cima?

“O Facebook opera internacionalmente”, disse Isaak Lifewire via email. “Cada jurisdição tem suas próprias regras e o Facebook pode ser responsabilizado por aquelas em outros países.” O Facebook deve manter todas as regras dos territórios em que opera em mente ao definir novas políticas. Ao tornar as políticas pouco claras, o Facebook está deixando espaço para erros que podem fazer com que o conselho de supervisão precise anular mais casos no futuro. Com a disseminação do discurso de ódio e da desinformação se tornando tão predominante – especialmente nas mídias sociais como Facebook e Twitter – é importante que essas empresas ofereçam diretrizes claras que possam ser usadas para moderar a comunidade. “O que é ‘discurso de ódio’ nos Estados Unidos pode ser definido como patriótico em outras sociedades autocráticas …” Claro, sempre há outras opções para ajudar a mitigar esse tipo de problema. Na verdade, um dos casos que o conselho originalmente pretendia supervisionar em dezembro foi retirado da pauta após o cancelamento da postagem pelo usuário. A moderação gerada pelo usuário é algo que já vimos ter sucesso em sites como a Wikipedia e, recentemente, o próprio Twitter intensificou-se com o lançamento do Birdwatch, um sistema de moderação desenvolvido pela comunidade para ajudar a impedir a disseminação de desinformação. Esses métodos têm outros problemas, porém, é por isso que obter uma linha de base padrão para as expectativas da comunidade será a chave para o Facebook oferecer uma melhor moderação de seus aplicativos e sites no futuro.