Plataformas digitais falham em fiscalizar conteúdos violentos
As plataformas digitais enfrentam dificuldades em monitorar e coibir a disseminação de conteúdos relacionados à violência, seja física ou psicológica. As falhas nas políticas de moderação de conteúdo permitem que mensagens, imagens e vídeos violentos circulem livremente nas redes sociais e outros meios de comunicação digital, muitas vezes causando danos irreparáveis a indivíduos e grupos.
MPF exige que Twitter tome medidas contra conteúdo violento em escolas brasileiras
No dia 11 de abril, o Ministério Público Federal (MPF) solicitou ao diretor jurídico do Twitter no Brasil que informasse sobre as medidas que estão sendo tomadas para controlar a incitação à violência e ataques a escolas. No dia 12 de abril, mesmo dia em que o governo brasileiro emitiu a portaria 351, o Twitter entrou em contato com o Ministério da Justiça para se manifestar que estava disposto a moderar conteúdos que promovam violência e massacres escolares, apresentando as medidas que iria tomar.
Segundo Carlos Affonso de Souza, professor da UERJ e diretor do Instituto de Tecnologia e Sociedade (ITS), o Twitter “é uma empresa em transformação”. Ele observa que a empresa foi adquirida por Elon Musk, que tem uma visão de liberdade de expressão quase absoluta. Isso levou a uma redução de pessoal responsável pela revisão de segurança e moderação de conteúdo na plataforma, contribuindo para o cenário atual de maior permissividade com conteúdos que não deveriam estar em uma rede social.
Affonso de Souza observa que tal conteúdo não só é prejudicial como também é ilegal e proibido pelas próprias regras do Twitter. Ele cita exemplos de mensagens que glorificam atiradores em escolas, planos para futuros atos de violência e expressões de apoio àqueles que podem perpetrar atos de violência.
Apesar da visão do governo brasileiro de que esse conteúdo deve ser removido imediatamente, Affonso de Souza destaca que as plataformas precisam de recursos para moderar adequadamente o conteúdo. Ele observa que esse pode ser um ponto de divergência entre o governo e plataformas como o Twitter, que não têm interesse em manter esse conteúdo online, mas exigem recursos financeiros para moderar o conteúdo adequadamente.
O Telegram e o Discord também estão enfrentando problemas semelhantes na moderação de conteúdo violento, pois ainda estão lutando com as dores de crescimento da moderação de conteúdo. Em conclusão, embora o conteúdo que promova a violência não tenha lugar nas redes sociais, as plataformas exigem as ferramentas e o pessoal necessários para tomar as medidas adequadas.
Moderação de conteúdo violento nas redes sociais
No dia 19 de abril de 2023, a Agência Brasil publicou um artigo sobre a moderação de conteúdo violento nas redes sociais. O texto entrevista especialistas em direito e tecnologia, como o professor da Universidade do Estado do Rio de Janeiro (Uerj), Carlos Affonso de Souza, e o advogado Philipe Cardoso, que compartilham suas opiniões sobre o tema.
De acordo com o professor Carlos Affonso de Souza, a moderação de conteúdo violento nas redes sociais é um desafio, pois as plataformas precisam equilibrar a liberdade de expressão e o combate ao discurso de ódio e à disseminação de informações falsas. Ele ressalta que as redes sociais vêm implementando melhorias em sua moderação, como ferramentas de inteligência artificial, mas que ainda é necessário contar com moderadores treinados para lidar com conteúdos complexos, como comentários irônicos, críticos ou afirmativos de uma situação que possa levar à violência.
Já o advogado Philipe Cardoso destaca que as plataformas têm termos de uso que proíbem a propagação de fake news, conteúdo violento, incitação ao ódio e racismo. No entanto, ele reconhece que a demora na adoção de medidas por parte das plataformas pode facilitar a disseminação de conteúdos ilegais. Além disso, ele aponta que as preocupações do governo em relação à moderação de conteúdo violento são legítimas, mas que podem gerar divergências entre os interesses do governo e das redes sociais.
Ambos concordam que a moderação de conteúdo violento nas redes sociais é um tema complexo que precisa ser debatido pela sociedade, governo e empresários responsáveis pelas redes sociais. Há um esforço conjunto para regular a disseminação de bullying, discursos de ódio e fake news, mas é preciso encontrar um equilíbrio entre a liberdade de expressão e o combate a esses problemas.