Processo de segurança infantil tem como alvo Discord, Roblox, Snapchat e Facebook

Roblox e Discord estão entre as plataformas processadas por supostamente prejudicarem crianças e adolescentes num novo processo. A ação, que também tem como alvo a plataforma Facebook da Meta e o Snapchat da Snap, alega que os serviços das empresas “contêm recursos exclusivos de produtos que se destinam e incentivam o vício, conteúdo ilegal e uso desses produtos, em detrimento dos seus utilizadores menores.”

Ajuizado no tribunal estadual da Califórnia, o processo é um dos muitos movidos contra grandes empresas de mídia social. Poucos deles cobriram o Discord e o Roblox, ambos populares entre os utilizadores jovens.

Isto surge logo após o governador da Califórnia, Gavin Newsom, assinar uma lei exigindo que os sites mudem a forma como tratam os utilizadores menores de 18 anos e segue um legislação do Reino Unido culpando diretamente as mídias sociais pelo suicídio de um adolescente.

O Social Media Victims Law Center entrou com o processo em nome de uma menina de 13 anos identificada como SU, que começou a usar o Roblox por volta dos 9 anos. SU foi supostamente contactada no Roblox por um utilizadore de 18 anos que a encorajou a participar ccom ele no Discord, Instagram e Snapchat.

O processo alega que a comunicação levou a uma “dependência prejudicial e problemática” de dispositivos eletrónicos que prejudicaram a sua saúde mental, enquanto a jovem de 18 anos incentivou SU a beber, enviar fotos explícitas e a envolver-se em outros comportamentos prejudiciais. Em 2020, SU supostamente tentou o suicídio.

As queixas contra cada plataforma são diferentes, mas algumas são extraídas de fontes familiares, incluindo detalhes sobre a pesquisa interna da Meta sobre como o Facebook e o Instagram afetam a autoestima dos adolescentes, além de vários relatos de que utilizadores menores de idade podem aceder a conteúdo prejudicial. Para o Discord e o Roblox especificamente, a reclamação destaca a suposta falha das plataformas em impedir que adultos enviem mensagens para crianças sem supervisão.

Como a maioria dos casos contra as redes sociais, o processo busca responsabilizar os serviços pelo design defeituoso do produto e, no processo, contornar a Seção 230 da Lei de Decência nas Comunicações, que protege os sites e aplicativos da responsabilidade por conteúdo e comunicações gerados pelo utilizador.

Um juiz do Oregon permitiu que um caso semelhante contra o Omegle prosseguisse em julho, argumentando que o serviço poderia ter feito mais para impedir que adultos e menores entrassem em contato uns com os outros.

Este caso e outros levantam questões sobre o equilíbrio entre proteger as crianças e preservar a privacidade online. O processo visa o Discord e Roblox, por exemplo, por não verificar a idade e identidade dos utilizadores. Fazer isto com rigor suficiente pode exigir o fim do anonimato online nas principais plataformas, um problema que tem perseguido as tentativas de fazer sites pornográficos verificarem a idade dos utilizadores no Reino Unido.

Fonte: MediaPost

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui