A Europa prepara-se para um novo capítulo na regulação das redes sociais. O Parlamento Europeu aprovou uma resolução que pede a harmonização da idade mínima de acesso a 16 anos em toda a União, permitindo o uso entre os 13 e os 16 apenas com consentimento parental explícito. Mais do que um gesto simbólico, é um sinal claro de que Bruxelas quer travar o impacto das plataformas na saúde mental dos jovens e reduzir práticas de design pensadas para viciar o utilizador.
Embora ainda não seja lei, a orientação é inequívoca: as plataformas terão de repensar tanto o onboarding de menores como as funcionalidades que maximizam o tempo de ecrã. Noutros países, como a Austrália, discutem-se limites semelhantes indício de que esta tendência regulatória é global.
Fim do “scroll infinito” para menores? A Europa quer cortar o vício no design
Um dos pontos mais contundentes da proposta mira diretamente o design das apps. A Eurocâmara quer proibir funcionalidades consideradas aditivas para menores de 16 anos, como o scroll infinito e a reprodução automática de vídeos. A mensagem é clara: reduzir fricção é bom para métricas, mas mau para a saúde mental de quem ainda está a formar hábitos.

Isto coloca pressão sobre feeds recomendados por algoritmos que “prendem” utilizadores em loops de conteúdos, ao estilo do que vemos em TikTok, Reels ou Shorts. O objetivo não é matar a descoberta, mas obrigar a um consumo mais consciente, com limites claros e controlos à vista do utilizador e dos pais.
Verificação de idade a sério: adeus à caixa “tenho 18 anos”
Para que a regra não fique no papel, a UE quer mecanismos de verificação de idade robustos. A peça central poderá ser a futura Carteira de Identidade Digital Europeia, capaz de comprovar maioridade sem expor dados desnecessários. Em vez de confiar numa mera autodeclaração, as plataformas terão de implementar processos fiáveis, auditáveis e à prova de fraude.
Alguns serviços já testam alternativas híbridas, como estimativas de idade por IA em vídeo ou validação documentaI. A fasquia europeia, contudo, deve exigir soluções com privacidade por defeito, minimização de dados e possibilidade de verificação local no dispositivo evitando a criação de novas bases de dados sensíveis.
Impacto imediato nas plataformas: retenção vs. segurança
As redes sociais vão ter de reescrever parte do seu playbook:
– Contas de menores com definições privadas por padrão.
– Feed com limite de reprodução automática e prompts que convidem à pausa.
– Mensagens diretas e funcionalidades sociais mais restritas por idade.
– Transparência reforçada sobre como o algoritmo recomenda conteúdo a adolescentes.
Algumas empresas já se antecipam. O Instagram tem alargado o controlo parental e limites de DMs para menores. O YouTube reforça filtros etários com IA. A mudança europeia, porém, deverá forçar uniformização de políticas e um maior escrutínio sobre o que é “aditivo” por design.
Fabricantes de telemóveis no centro da estratégia
A proposta não fica pelas apps: prevê obrigações ao nível do hardware. Isso significa sistemas de controlo parental integrados no sistema operativo, fáceis de ativar, com relatórios claros para os pais e opções de horários, bloqueios de apps e alertas de tempo de ecrã. Se for avante, esta linha coloca Apple, Google e fabricantes Android diante da necessidade de afinar perfis infantis, idades verificadas e APIs que comuniquem com as plataformas para aplicar restrições por idade.
Deepfakes, “kidfluencers” e novas regras para proteger menores
A resolução também aponta ao ecossistema de conteúdos: pretende travar a disseminação de deepfakes que possam afetar crianças e adolescentes, bem como criar regras para “kidfluencers”, limitando a exploração comercial da imagem e do tempo de trabalho de menores. Para criadores e marcas, o recado é simples: transparência, consentimento informado e salvaguardas legais deixam de ser opcionais.
O que isto significa para pais e escolas
Se tem filhos entre os 13 e os 16 anos, conte com um novo passo no registo: consentimento explícito, verificável e revogável. Em paralelo, as escolas poderão ganhar um aliado regulatório para educar sobre literacia digital, bem-estar e uso responsável. A médio prazo, veremos mais dashboards para famílias, relatórios de tempo de ecrã e controlos granulares por faixa etária.
Boas práticas a antecipar:
– Ativar controlos parentais no telemóvel e nas apps mais usadas.
– Definir horários sem ecrã (especialmente à noite e durante o estudo).
– Conversar sobre algoritmos, privacidade e conteúdos manipulados.
– Revisitar permissões de dados: geolocalização, microfone, notificações.
Privacidade: a peça crítica da verificação etária
Tudo se joga num equilíbrio delicado: proteger menores sem criar sistemas de vigilância desproporcionados. A verificação de idade tem de ser proporcional, com provas criptográficas que confirmem a maioridade sem revelar identidade completa. É aqui que soluções baseadas em credenciais verificáveis e prova de idade “zero-knowledge” podem fazer a diferença, permitindo cumprir a lei sem alimentar novas bases de dados de crianças.
Quando entra em vigor? E o que falta decidir
Estamos perante uma resolução política que define a rota legislativa. Seguem-se propostas formais, negociações com Estados-membros e prazos de adaptação. Espera-se um período de transição que permita às plataformas redesenhar fluxos, validar sistemas de verificação e testar alternativas menos intrusivas. Pontos ainda em aberto:
– Quem certifica os sistemas de verificação e com que auditorias.
– Como alinhar regras com o RGPD e a Carta de Direitos Digitais.
– Exceções para ambientes educativos ou ferramentas colaborativas.


































