Principais vantagens
- O Conselho de Supervisão do Facebook pediu regras de desinformação mais claras no site de mídia social.
- Atualmente, o conselho derrubou várias decisões feitas pelo Facebook para remover postagens que considerava desinformação ou discurso de ódio, mas não eram realmente isso.
- A necessidade de definições mais claras do que é e não é desinformação ou discurso de ódio é necessária, especialmente com o alcance internacional do Facebook.
Linhas na areia
Essa necessidade de consistência e regras mais concisas já está entrando em jogo. Dos cinco casos que o conselho de supervisão do Facebook assumiu em dezembro, o grupo decidiu anular quatro deles, com dois deles mostrando claramente a necessidade de melhor moderação. Em um dos casos revertidos, o conselho decidiu a favor de uma mulher cuja postagem no Instagram sobre câncer de mama foi removida do site automaticamente por violar sua política de nudez adulta e atividade sexual. Embora o Facebook já tenha restaurado a fotografia, o conselho mostrou objeções a que ela fosse removida. O conselho até recomendou que o Facebook implementasse um sistema de apelação que permitisse aos usuários ver quando uma postagem foi removida, por que foi removida e até mesmo sugerindo maneiras de falar com um ser humano para buscar uma solução.
Qual é o caminho para cima?
“O Facebook opera internacionalmente”, disse Isaak Lifewire via email. “Cada jurisdição tem suas próprias regras e o Facebook pode ser responsabilizado por aquelas em outros países.” O Facebook deve manter todas as regras dos territórios em que opera em mente ao definir novas políticas. Ao tornar as políticas pouco claras, o Facebook está deixando espaço para erros que podem fazer com que o conselho de supervisão precise anular mais casos no futuro. Com a disseminação do discurso de ódio e da desinformação se tornando tão predominante – especialmente nas mídias sociais como Facebook e Twitter – é importante que essas empresas ofereçam diretrizes claras que possam ser usadas para moderar a comunidade. “O que é ‘discurso de ódio’ nos Estados Unidos pode ser definido como patriótico em outras sociedades autocráticas …” Claro, sempre há outras opções para ajudar a mitigar esse tipo de problema. Na verdade, um dos casos que o conselho originalmente pretendia supervisionar em dezembro foi retirado da pauta após o cancelamento da postagem pelo usuário. A moderação gerada pelo usuário é algo que já vimos ter sucesso em sites como a Wikipedia e, recentemente, o próprio Twitter intensificou-se com o lançamento do Birdwatch, um sistema de moderação desenvolvido pela comunidade para ajudar a impedir a disseminação de desinformação. Esses métodos têm outros problemas, porém, é por isso que obter uma linha de base padrão para as expectativas da comunidade será a chave para o Facebook oferecer uma melhor moderação de seus aplicativos e sites no futuro.