Roblox falha no controlo de idade: fiasco total
A pressão para reforçar a segurança nunca foi tão alta. Entre relatos de aliciamento de menores, investigações e ações judiciais nos EUA, a plataforma decidiu virar a página no chat e exigir verificação de idade para todos. A promessa é simples no papel: aproximar utilizadores de faixas etárias semelhantes e tornar os espaços de conversação menos vulneráveis a abusos. Na prática, o caminho está a ser tudo menos linear.
Para enviar mensagens, os jogadores têm agora de comprovar a idade de duas formas possíveis. A via rápida é um “estimador” por selfie que tenta inferir quantos anos tens com base na tua cara. Para maiores de 13, existe ainda uma opção de confirmação com documento de identificação. Depois disso, o sistema segmenta as salas de chat por grupos etários aproximados, reduzindo a interação entre adultos e menores. Em teoria, faz sentido. Mas os resultados iniciais mostram uma implementação com pontas soltas.
O problema mais visível tem sido a taxa de erros. Há casos de adultos empurrados para grupos de adolescentes e jovens que passaram por adultos. Erros de classificação isolados são expectáveis em qualquer sistema de estimativa; o que preocupa aqui é a sensibilidade do contexto. No chat, uma fronteira de dois ou três anos muda radicalmente quem pode falar com quem. E, quando a malha é demasiado larga, o impacto social dentro dos próprios jogos é imediato.

O calcanhar de Aquiles está na ausência de verificação de “prova de vida” robusta. Vídeos a circular online mostram miúdos a enganar o algoritmo com fotografias de rostos adultos ou a adicionar bigodes desenhados e rugas com marcador. Sem uma deteção consistente de liveness a confirmação de que há uma pessoa real frente à câmara, em tempo real a porta fica aberta a manipulações básicas. É um lembrete de que, em segurança digital, o caminho de menor resistência é sempre explorado.
Outro efeito colateral curioso: em algumas famílias, os adultos tratam da verificação em nome dos filhos, acabando por empurrar as contas dos miúdos para a faixa 21+. Isto não só destrói o objetivo de segmentação por idade como também cria um desalinhamento entre expectativas e regras de convivência dentro dos servidores. É um problema de usabilidade, sim, mas sobretudo de desenho de fluxo: a interface deve guiar o utilizador certo a validar a conta certa, sem atalhos tentadores.
Os criadores que dependem do chat para dinamizar mundos, moderar partidas e criar ligação entre jogadores queixam-se de um antes e depois. Em fóruns de developers, multiplicam-se relatos de salões esvaziados e interações reduzidas. Quando a conversação cai, o ritmo do jogo abranda: menos cooperação, menos recrutamento para clãs, menos feedback instantâneo. A sensação de “cidade fantasma” é compreensível quando a funcionalidade social central fica atrás de um portão instável.
A verificação de idade por imagem e documentos é um equilíbrio delicado. Os pais querem segurança e as autoridades exigem diligência; ao mesmo tempo, jogadores e encarregados de educação estão cada vez mais atentos ao destino de selfies, metadados e cópias de documentos. A confiança constrói-se com transparência: onde são guardados os dados, por quanto tempo, com que base legal, e como posso apagá-los? Sem respostas claras, o voto de confiança evapora e o risco reputacional aumenta.
Há caminhos pragmáticos para melhorar sem deitar fora a ambição de proteger os mais novos:
- Liveness forte e multimodal: pedir micro-movimentos, variações de luz e auditorias automáticas para bloquear fotos e ecrãs de terceiros.
- Combinar sinais: selfie + padrões de utilização + histórico de dispositivo + consentimento parental verificado criam uma verificação mais difícil de fraudar do que um único teste.
- Apelos e reclassificação rápida: quando um utilizador é colocado no grupo errado, a correção deve ser célere e apoiada por evidências mínimas (ex.: vídeo curto com liveness).
- Guias claros para famílias: separar contas adultas e infantis no mesmo dispositivo, com instruções à prova de erro e alertas quando alguém tenta validar “pela criança”.
- Ferramentas para developers: métricas por faixa etária, modos de chat alternativos (predefinições, ícones/gestos), e APIs para gerir comunidades sem depender apenas de texto livre.
- Comunicação transparente: dashboards públicos com taxa de acerto, tempo de resposta a apelos e auditorias independentes de privacidade.
A segurança em plataformas massivas é um jogo de ajustes contínuos. A intenção de proteger menores é meritória e necessária, mas não pode ser implementada à custa do essencial: a experiência de jogo e a confiança dos utilizadores. A verificação de idade é um pilar, não a casa toda. Quando é frágil, tudo o resto abana: comunidades dispersam-se, criadores perdem tração e a marca entra em turbulência.
Fonte: Engadget



Sem Comentários! Seja o Primeiro.