Conselho de Supervisão da Meta está abordando um caso focado na capacidade do Meta de desabilitar permanentemente contas de usuários. Os banimentos permanentes são uma ação drástica, bloqueando as pessoas de seus perfis, memórias, conexões de amigos e, no caso de criadores e empresas, de sua capacidade de comercializar e se comunicar com fãs e clientes.
Esta é a primeira vez nos cinco anos de história da organização como consultora política que as proibições permanentes de contas têm sido objeto de atenção do Conselho de Supervisão, observa a organização.
O caso que está sendo analisado não é exatamente o de um usuário comum. Em vez disso, o caso envolve um usuário importante do Instagram que violou repetidamente as regras do Meta. Padrões da Comunidade publicando ameaças visuais de violência contra uma jornalista, insultos anti-gay contra políticos, conteúdo retratando um ato sexual, alegações de má conduta contra minorias e muito mais. A conta não acumulou strikes suficientes para ser desativada automaticamente, mas Meta tomou a decisão de banir permanentemente a conta.
Os materiais do Conselho não mencionavam o nome da conta em questão, mas suas recomendações poderiam impactar outras pessoas que publicassem conteúdo direcionado a figuras públicas com abuso, assédio e ameaças, bem como usuários que tivessem suas contas permanentemente banidas sem receber explicações transparentes.
A Meta encaminhou esse caso específico ao Conselho, que incluiu cinco postagens feitas no ano anterior à desativação definitiva da conta. A gigante tecnológica diz que está à procura de informações sobre várias questões importantes: como as proibições permanentes podem ser processadas de forma justa, a eficácia das suas ferramentas atuais para proteger figuras públicas e jornalistas de abusos repetidos e ameaças de violência, os desafios de identificar conteúdo fora da plataforma, se as medidas punitivas moldam eficazmente os comportamentos on-line, e as melhores práticas para relatórios transparentes sobre decisões de aplicação de contas.
A decisão de rever os detalhes do caso ocorre depois de um ano em que usuários reclamaram de banimentos em massa com poucas informações sobre o que fizeram de errado. O problema afetou os grupos do Fb, bem como os titulares de contas individuais que acreditam que as ferramentas automatizadas de moderação são as culpadas. Além disso, aqueles que foram banidos reclamaram que a oferta de suporte pago da Meta, Meta Verified, provou ser inútil para ajudá-los nessas situações.
Se o Conselho de Supervisão tem alguma influência actual para resolver problemas na plataforma Meta continua a ser debatido, é claro.
O conselho tem um escopo limitado para promover mudanças na gigante das redes sociais, o que significa que não pode forçar a Meta a fazer mudanças políticas mais amplas ou a resolver questões sistêmicas. Notavelmente, o Conselho não é consultado quando o CEO Mark Zuckerberg determine fazer mudanças radicais nas políticas da empresa – como a sua decisão no ano passado para relaxar as restrições ao discurso de ódio. O Conselho pode fazer recomendações e anular decisões específicas de moderação de conteúdo, mas muitas vezes pode demorar para tomar uma decisão. Também assume relativamente poucos casos em comparação com os milhões de decisões de moderação que o Meta toma em sua base de usuários.
De acordo com um relatório divulgado em dezembro, A Meta implementou 75% das mais de 300 recomendações emitidas pelo Conselho, e suas decisões de moderação de conteúdo foram seguidas de forma consistente pela Meta. Meta também perguntou recentemente para a opinião dos conselheiros políticos sobre a implementação do recurso de verificação de fatos de crowdsourcing, Neighborhood Notes.
Depois que o Conselho de Supervisão emitir suas recomendações políticas à Meta, a empresa terá 60 dias para responder. O Conselho também solicita comentários públicos sobre este tema, mas estes não podem ser anônimos.













