Já teve uma postagem excluída ou sinalizada uma vez que inapropriada em alguma rede social e não entendeu o motivo? Pois é. Saiba que nos faltam informações não somente sobre uma vez que esse processo acontece, mas também sobre o histórico de decisões de moderação de teor. Isto é, sobre os motivos para as intervenções das plataformas digitais sobre as publicações feitas por usuários em redes sociais. Essa vazio não permite saber quais os principais problemas enfrentados pelos usuários em relação aos procedimentos dessa moderação.
O vestimenta é que as empresas publicam relatórios de transparência, mas a maioria desses documentos exclusivamente contabiliza números totais, uma vez que de conteúdos moderados, recursos de usuários e cumprimento de decisões judiciais. As situações concretas e os motivos das decisões que orientam a atuação das plataformas não são publicizadas.
Do que reclamam os usuários das redes sociais?
Buscando jogar luz sobre esses dados, nós do Instituto de Referência em Internet e Sociedade (IRIS) realizamos um estudo das principais queixas feitas por usuários do Facebook, Instagram, Twitter, TikTok e YouTube na plataforma Reclame Cá, nacionalmente conhecida uma vez que um meio entre clientes e empresas para a solução de problemas. Coletamos mais de milénio reclamações no totalidade, e analisamos a fundo 449 que identificamos uma vez que sendo de nosso interesse de pesquisa.
Dentre as reclamações que analisamos, 54,34% tratavam do procedimento de moderação em casos de remoção de postagens e suspensão/bloqueio de contas. Esse número aponta para o quanto a opacidade nesse processo contribui para a suspeição e insatisfação dos usuários, e impacta negativamente a percepção pública sobre as plataformas.
Respostas automáticas que não explicam os porquês
Nesse universo, a fundamentação inadequada foi a principal razão de queixa, no totalidade de 128. Ou seja: 52,46% das reclamações sobre moderação de teor. Em outras palavras, existe uma série de reclamações de usuários decorrentes da falta de transparência e nitidez nos motivos apresentados pelas plataformas digitais ao moderarem teor. Nessa categoria, encontram-se, por exemplo, casos de respostas automáticas que não dialogavam corretamente com os argumentos da pessoa que apresentou um recurso.
Em segundo lugar, representando 22,54% das reclamações sobre moderação, estão aquelas em que o recurso contra uma decisão de moderação não foi respondido pela plataforma. Essa vazio pode fomentar a teoria de que as plataformas estão agindo de maneira arbitrária. Em vez disso, as empresas deveriam adotar uma abordagem mais rigorosa e transparente na moderação de conteúdos.
Às vezes você pode nem mesmo permanecer sabendo
Em um cenário onde muitas pessoas têm se utilizado de redes sociais uma vez que principal meio de notícia para o seu trabalho, a falta de uma resposta aos recursos contra as decisões de moderação pode deixá-las em completo desamparo e afetar os seus ganhos. O mesmo pode ser dito em casos em que o usuário percebeu teor removido, mas afirma não ter recebido nenhuma notificação a saudação (9,02%).
As porcentagens de reclamações nas categorias de design inacessível da plataforma (4,51%) e pouquidade de ferramentas de recurso/oposição/revisão (7,38%) são relativamente baixas, mas elas indicam áreas significativas de preocupação. A revisão permanente dos processos de moderação, muito uma vez que a otimização das interfaces e funcionalidades das plataformas são essenciais para prometer não exclusivamente a manutenção da eficiência e acessibilidade nestes aspectos, mas também para tornar as ações das plataformas cada vez mais transparentes e alinhadas com as necessidades dos usuários.
O problema não está só em remover postagens sem apresentar os motivos
Finalmente, nosso estudo também apontou que 45,66% das reclamações analisadas não tratavam de remoção de postagem ou suspensão/bloqueio de conta. Neste universo, as reclamações versavam sobre reclamações genéricas sobre a moderação de teor das plataformas (36,1%); pedidos de moderação de teor de terceiro (30,24%); problemas com monetização (10,24%); problemas com a recomendação ou o alcance do teor (10,24%); restrição de funcionalidades na plataforma em virtude de decisão de moderação (10,24%); problemas gerados por limitação etária da plataforma (1,95%); pedidos de moderação de anúncios (1,46%).
Para saber mais sobre a metodologia da pesquisa, muito uma vez que sobre as reclamações que foram descartadas antes da estudo final, acesse a pesquisa completa no site do IRIS.
*Fernanda Rodrigues. Coordenadora de Pesquisa e Pesquisadora no Instituto de Referência em Internet e Sociedade (IRIS). Doutoranda em Recta, Tecnociências e Interdisciplinaridade pela UFMG. Rabino em Direitos da Sociedade em Rede e graduada em Recta pela UFSM.
**Luiza Correa de Magalhães Dutra, doutoranda e mestra em Ciências Criminais pela PUCRS, com período sanduíche na uOttawa, Canadá. Bacharela em Ciências Sociais pela UFRGS e em Recta pela PUCRS. Pesquisadora e líder de projeto pelo Instituto de Referência em Internet e Sociedade (IRIS/BH). Integrante do Grupo de Pesquisa Políticas Públicas de Segurança e Gestão da Justiça Penal (GPESC/PUCRS).
***Paulo Rená: Pesquisador do IRIS. Doutorando em Recta, Estado e Constituição na UnB. Foi gestor no processo de elaboração coletiva do Marco Social no Ministério da Justiça.
*Levante é um cláusula de opinião e não reflete necessariamente a posição editorial do Brasil de Vestimenta.
Edição: Martina Medina
Discussion about this post