Principal alteração é o fim do programa de verificação de fatos por terceiros
A Meta, empresa controladora do Facebook e Instagram, anunciou nesta terça-feira (7) mais uma mudança radical em sua política de moderação de conteúdo, que pode ter profundas implicações para a disseminação de informações falsas nas redes sociais.
A principal alteração é o fim do programa de verificação de fatos por terceiros. No lugar, a empresa adotará um sistema de “notas da comunidade”, similar ao modelo implementado pelo X (antigo Twitter). Essa mudança, segundo a Meta, visa promover a liberdade de expressão e reduzir a censura de conteúdos legítimos.
Segundo Mark Zuckerberg, CEO da Meta, os verificadores de fatos “têm sido muito politicamente tendenciosos e destruíram mais confiança do que criaram”. A empresa argumenta ainda que os sistemas de moderação anteriores eram excessivamente rigorosos e removiam conteúdos inofensivos com frequência.
Especialistas e ativistas alertam para os riscos dessa nova abordagem;
“O anúncio da Meta hoje é um recuo de qualquer abordagem sensata e segura à moderação de conteúdo”, afirmou o Real Facebook Oversight Board, um órgão de supervisão independente;
A eliminação da verificação de fatos pode facilitar a disseminação de notícias falsas, teorias da conspiração e discursos de ódio;
A moderação de conteúdo, agora nas mãos dos próprios usuários, também pode ser suscetível a manipulação.
Compromentimento, profissionalismo e qualidade são a base do nosso roteiro.
Entrar em contato