Em meio às críticas no julgamento que começou na semana passada no STF (Supremo Tribunal Federalista), a Meta, dona do Facebook, Instagram e WhatsApp, afirma que “não há inércia” da empresa contra conteúdos nocivos, “ao contrário do que tem se ouvido no debate público”.
A nota da empresa cita o cláusula 19 do Marco Social da Internet e o “debate sobre atualização das regras da internet”, sem reportar explicitamente, porém, o julgamento sobre o tópico que está ocorrendo no Supremo. O Facebook é secção em uma das ações no STF. Apesar de rebater críticas que vêm sofrendo no debate público relacionado à discussão quanto à responsabilidade das redes, a publicação desta terça-feira (3) se refere às medidas tomadas pela Meta em resposta às resoluções do TSE (Tribunal Superior Eleitoral).
Segundo o relatório, no período eleitoral entre agosto e outubro deste ano, foram removidos mais de 2,9 milhões de conteúdos no Facebook, Instagram e Threads no Brasil por violação das “políticas de bullying e assédio, oração de ódio e violência e incitação”. “Porquê os números inferior sobre moderação de teor atestam, não há inércia da Meta para detectar e agir sobre conteúdos nocivos, ao contrário do que tem se ouvido no debate público”, diz a nota.
A empresa nega ainda que seu padrão de negócios prospere em “envolvente online tóxico”, argumentando que anunciantes não querem suas marcas vinculadas a nascente tipo de teor.
Os críticos da proposta da Meta apontam que a remoção de conteúdos sem supervisão judicial pode terebrar precedentes perigosos para a repreensão nas redes sociais. Eles argumentaram que essa medida poderia ser usada de forma arbitrária, prejudicando a liberdade de sentença e silenciando vozes dissidentes. Essa visão é compartilhada por alguns membros do judiciário e por organizações do mesmo
Esse debate sobre a responsabilidade das plataformas de redes sociais no Brasil é um revérbero da tensão global em torno do papel das empresas de tecnologia na gestão da informação. O estágio dessa disputa no STF será crucial para o porvir da moderação de teor no Brasil, e a decisão terá repercussões não exclusivamente para as grandes plataformas, mas também para os usuários.