Início Redes Sociais Mark Zuckerberg acusado de práticas imperdoáveis contra adolescentes na Meta

Mark Zuckerberg acusado de práticas imperdoáveis contra adolescentes na Meta

Os bastidores da tecnologia raramente ficam tão expostos como quando um tribunal decide tornar públicos documentos sensíveis. Num processo de grande escala que envolve várias plataformas sociais, os autos divulgados colocam a Meta no centro das atenções, descrevendo um conjunto de alegações que, se confirmadas, poderão remodelar a forma como as redes sociais lidam com jovens utilizadores e como os reguladores respondem.

Importa sublinhar desde o início: estamos a falar de alegações constantes num processo em curso, ainda não provadas em tribunal. Mesmo assim, a riqueza de pormenores é invulgar e lança um debate urgente sobre desenho de produto, responsabilidade corporativa e regras do jogo na economia das plataformas.

O que está em causa no processo

O processo agrega mais de 1.800 queixosos pais, conselhos escolares e procuradores estaduais e acusa a Meta de um “padrão alargado de dissimulação” ao lidar com riscos para menores nas suas plataformas. Outras empresas são citadas, mas as descrições referentes à Meta são as mais extensas, delineando um quadro em que métricas de envolvimento de adolescentes teriam sido privilegiadas face a medidas de proteção.

Segundo os documentos, a empresa terá conhecido, há anos, impactos negativos associados ao uso por menores, mas terá persistido em decisões de produto que alimentavam a permanência online dos jovens. O caso promete tornar-se um referencial jurídico sobre o dever de cuidado de plataformas de grande escala.

According to a lawsuit, Mark Zuckerberg allegedly directed his company to prioritize the metaverse over youth safety, among other violations.

As acusações mais graves, em linguagem simples

De acordo com reportagens que analisaram o material do tribunal, são apontados vários eixos de preocupação: Moderação falhada: ferramentas de IA no Instagram teriam ignorado de forma consistente conteúdos relacionados com abuso sexual infantil e perturbações alimentares, ao passo que o reporte manual seria mais fácil para questões menores, como spam. Tolerância injustificável: a documentação fala num sistema com até 17 “faltas” antes de bloquear contas associadas a tráfico sexual um número que, se verdadeiro, é difícil de conciliar com uma política de tolerância zero. Prioridades internas: mensagens internas citadas indicam que a segurança de menores não teria sido prioridade ao mais alto nível, com foco colocado noutros projetos estratégicos.

Aposta nos pré‑adolescentes: depois de um estudo interno apontar que uma parte substancial de crianças entre os 9 e os 12 anos usava diariamente o Instagram, a empresa teria, alegadamente, estudado de forma ativa a psicologia dos “tweens” e explorado funcionalidades para utilizadores de 5-10 anos. – Notificações com base em localização: há referência a notificações enviadas para alunos em contexto escolar, usando dados de localização, potenciando a utilização durante as aulas.

Uma comunicação interna citada compara a suposta estratégia a práticas históricas da indústria do tabaco: “temos de os fidelizar quando são novos”. Essa analogia regressa também em declarações dos advogados dos queixosos, que falam de produtos desenhados para incentivar uso repetido, com efeitos colaterais na saúde mental de jovens.

O metaverso entra na história e no balanço

Outro elemento que chamou a atenção é a alegada escolha estratégica de priorizar o metaverso face a pedidos internos para reforçar a segurança dos menores. O esforço no metaverso que consumiu dezenas de milhares de milhões de dólares desde 2021 acabou por não corresponder às expectativas. Para os críticos, este desvio de foco ilustra um desequilíbrio entre apostas visionárias e a gestão de riscos do dia a dia.

Para investidores e colaboradores, o ponto não é apenas moral, é também operacional: num negócio dependente de confiança e de regulação cada vez mais assertiva, a gestão de risco reputacional conta tanto como a inovação.

A União Europeia tem hoje uma moldura legal com consequências reais: O Digital Services Act (DSA) obriga as grandes plataformas a avaliarem e mitigarem riscos sistémicos, incluindo a proteção de menores, e proíbe publicidade baseada em perfis dirigida a menores. O incumprimento pode implicar multas até 6% do volume de negócios global. Ao abrigo do RGPD, o tratamento de dados de crianças exige salvaguardas acrescidas. Em Portugal, a idade de consentimento para serviços da sociedade da informação é 13 anos, o que coloca pressão adicional sobre mecanismos robustos de verificação e de desenho de produto “privacy by design”.

O que as famílias e as escolas podem fazer já

Enquanto o processo decorre, há medidas práticas ao alcance de pais, educadores e alunos: – Rever as definições de privacidade e a partilha de localização em cada app. Restringir notificações durante o horário escolar e em períodos de descanso. Usar controlos parentais do sistema operativo (iOS/Android) em vez de depender só das ferramentas das apps. Promover literacia digital: reconhecer sinais de conteúdos nocivos e saber reportar corretamente. Estabelecer tempos de ecrã com regras claras e negociadas, com revisão periódica.

O que observar nos próximos meses

Este caso poderá tornar-se um barómetro do que a justiça está disposta a exigir às plataformas no desenho de funcionalidades para menores. Sinais a acompanhar: Possíveis mudanças nos fluxos de reporte para conteúdos sensíveis. Ajustes nas regras de moderação e thresholds de aplicação de sanções. Limitações a notificações baseadas em localização e reforço de controlos de idade. Auditorias externas ordenadas por reguladores e relatórios de risco públicos, conforme o DSA.

Fonte: Futurism

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui