Meta anunciou Janeiro terminaria Alguns esforços de moderação de conteúdo, afrouxam suas regras e colocam mais ênfase no apoio à “liberdade de expressão”. Os turnos resultaram em menos postagens sendo removidas do Facebook e Instagram, a empresa divulgado Quinta -feira em seu relatório trimestral de aplicação de padrões da comunidade. Meta disse isso suas novas políticas Ajudou a reduzir as remoções de conteúdo errôneas nos EUA pela metade, sem expor amplamente os usuários a conteúdo mais ofensivo do que antes das alterações.
O novo relatórioque foi referenciado em uma atualização para uma postagem no blog de janeiro do meta-chefe de Assuntos Globais Joel Kaplan, mostra que a Meta removeu quase um terço a menos de conteúdo no Facebook e Instagram globalmente por violar suas regras de janeiro a março deste ano do que no trimestre anterior ou cerca de 1,6 bilhão de itens em comparação a 2,4 bilhões, de acordo com uma análise de Wired. Nos últimos trimestres, as remoções trimestrais totais da gigante da tecnologia haviam subido anteriormente ou permaneceu plano.
No Instagram e no Facebook, a Meta relatou remover cerca de 50 % menos postagens por violar suas regras de spam, quase 36 % menos para perigo para crianças e quase 29 % menos por conduta de ódio. As remoções aumentaram em apenas uma categoria de regras importantes-o conteúdo de suicídio e auto-mutilação-dos 11 que meta listas.
A quantidade de meta de conteúdo remove regularmente de trimestre para trimestre, e vários fatores podem ter contribuído para a queda de quedas. Mas a própria empresa reconheceu que “as mudanças feitas para reduzir os erros de execução” foram uma das razões para a grande queda.
“Em uma série de áreas políticas, vimos uma diminuição na quantidade de conteúdo acionada e uma diminuição na porcentagem de conteúdo em que tomamos medidas antes de um usuário o denunciar”, escreveu a empresa. “Isso ocorreu em parte por causa das mudanças que fizemos para garantir que estamos cometendo menos erros. Também vimos uma diminuição correspondente na quantidade de conteúdo apelada e eventualmente restaurada”.
Meta relaxou algumas de suas regras de conteúdo no início do ano em que o CEO Mark Zuckerberg descreveu como “apenas fora de contato com o discurso convencional”. As mudanças permitiram que o Instagram e os usuários do Facebook empregar algum idioma que os ativistas dos direitos humanos consideram odioso em relação a imigrantes ou indivíduos que se identificam como transgêneros. Por exemplo, a Meta agora permite “alegações de doença mental ou anormalidade quando baseadas em gênero ou orientação sexual”.
Como parte das mudanças abrangentes, anunciadas exatamente como Donald Trump estava programado para iniciar seu segundo mandato como presidente dos EUA, a Meta também parou de confiar tanto em ferramentas automatizadas para identificar e remover postagens suspeitas de violações menos graves de suas regras porque diziam ter altas taxas de erro, provocando frustração dos usuários.
Durante o primeiro trimestre deste ano, os sistemas automatizados da Meta representavam 97,4 % do conteúdo removido do Instagram sob as políticas de fala de ódio da empresa, abaixo de apenas 1 ponto percentual do final do ano passado. (O usuário se reporta ao Meta acionou a porcentagem restante.) Mas as remoções automatizadas para bullying e assédio no Facebook caíram quase 12 pontos percentuais. Em algumas categorias, como a nudez, os sistemas da Meta eram um pouco mais proativos em comparação com o trimestre anterior.