Instagram pode em breve reconsiderar como modera corpos trans

O conselho de supervisão da Meta está pegando dois casos em torno da censura de criadores queer.
  Instagram pode em breve reconsiderar como modera corpos trans Imagens SOPA/Imagens Getty

O Conselho de Supervisão da Meta está se preparando para considerar um caso sobre identidade de gênero e nudez no Instagram, cujo resultado afetará as experiências do usuário de pessoas trans e não binárias em todos os lugares.

O Conselho de Supervisão, um órgão externo que lida com questões de decisões de aplicação de conteúdo no Facebook e Instagram, anunciado terça-feira que estaria analisando quatro novos casos. Um dos casos aborda duas instâncias separadas em que um casal trans e não binário teve imagens removidas da conta conjunta que eles administram. A primeira imagem, de 2021, mostrava as duas pessoas nuas da cintura para cima, com fita cor de carne sobre os mamilos. Na segunda imagem, postada em 2022, uma pessoa está cobrindo os mamilos da outra com as mãos. As legendas para ambas as imagens discutiam como a pessoa que está de peito nu em ambas as fotos em breve faria uma cirurgia de primeira linha, observando “seus planos para documentar o processo de cirurgia e discutir questões de saúde trans” e incluindo um anúncio de arrecadação de fundos. O Conselho de Supervisão manteve tanto as postagens quanto as contas anônimas.

Meta removeu ambas as postagens, citando a Padrão da Comunidade de Solicitação Sexual , uma política sobre conteúdo sexual nas propriedades da Meta, incluindo Facebook e Instagram. Esse padrão restringe conteúdo que “facilite, encoraje ou coordene encontros sexuais ou serviços sexuais comerciais entre adultos”, bem como “linguagem sexualmente explícita que possa levar a solicitação sexual”. Apesar do fato de nenhum dos posts incluir tal linguagem, três usuários relataram o primeiro post por “pornografia e automutilação”. Embora os moderadores humanos que revisaram essas reclamações inicialmente tenham descoberto que a postagem não violava, o conteúdo foi relatado pela quarta vez e um moderador separado removeu a postagem.

O segundo post foi considerado “potencialmente violador” pelo Meta’s moderação IA , embora os revisores humanos a considerassem inviolável. Mesmo depois que a postagem foi denunciada duas vezes por conteúdo potencialmente violador, as denúncias foram fechadas automaticamente. Mas quando a IA da Meta revisou a postagem pela terceira vez e a considerou potencialmente violadora, um revisor separado decidiu remover a postagem.

Embora o casal tenha tentado apelar à Meta para que as postagens fossem restauradas, a empresa se recusou a ceder. Foi somente depois que o casal apelou ao Conselho que Meta considerou essas remoções como “erros de execução” e as restaurou. Agora, o Conselho está solicitando comentários públicos sobre o caso.

O Conselho escreveu em seu anúncio de terça-feira que gostaria especificamente de comentários sobre se as políticas da Meta sobre nudez e solicitação sexual respeitam suficientemente os direitos dos usuários trans e não binários. O Conselho também está buscando comentários sobre se a Meta possui procedimentos suficientes para abordar o conteúdo não violador relatado e sobre como mitigar o risco de remoção por engano, entre outros tópicos. O prazo para enviando comentários públicos é terça-feira, 9 de agosto, às 11:00 am EDT.

A notícia vem em meio ao aumento do escrutínio direcionado à Meta, tanto por sua restrições sobre conteúdo relacionado ao aborto em um publicar- Ovas época e por sua uso de IA na moderação de conteúdo . A denunciante do Facebook, Frances Haugen, criticou recentemente a dependência da empresa na IA, em vez de pagar aos moderadores de conteúdo humano de forma justa, dizendo que a IA “só poderia ser tão precisa”.

“As pessoas que realmente trabalham nele chamam de aprendizado de máquina, porque não é inteligente”, disse Haugen em comentários relatados por Business Insider .

Essa falta de precisão também tem um custo humano. UMA relatório recente da GLAAD descobriu que o Meta, juntamente com todas as outras grandes plataformas de mídia social, ainda não protege seus usuários LGBTQ+. A organização convocou a gigante da mídia social a publicar dados abrangentes sobre como suas políticas de proteção aos usuários LGBTQ+ são aplicadas, considerando que o conteúdo anti-LGBTQ+ ainda circula pelo Facebook e Meta fugindo dos olhos dos moderadores, humanos ou não.

Desde a aprovação da legislação “anti-tráfico” SESTA-FOSTA em 2018, as pessoas LGBTQ+ na Internet têm enfrentado aumentando a censura e o shadowbanning . Isso porque as leis removeram proteções cruciais que afirmavam que as plataformas não poderiam ser responsabilizadas por conteúdo gerado pelo usuário, abrindo uma exceção para conteúdo relacionado a “tráfico sexual”, que também foi falsamente confundido com trabalho sexual consensual . Mas, como mostra o caso Meta, corpos queer e trans meramente existentes são muitas vezes considerados inadequadamente sexuais, tudo além das dificuldades que os verdadeiros profissionais do sexo queer e trans enfrentam.