OpenAI cancela “modo adulto”. Sabe porquê!
Nos últimos meses, parecia certo que o ChatGPT iria oferecer interações mais “maduras” aos maiores de idade. Essa porta fechou-se, pelo menos por agora. Segundo avançou o Financial Times e foi depois detalhado pela Engadget, a OpenAI decidiu suspender indefinidamente o chamado modo adulto, invocando falhas críticas nas salvaguardas para menores.
Neste artigo encontras:
No centro da decisão está um problema tão técnico quanto sensível: a verificação de idade não é suficientemente fiável e, num domínio com riscos psicológicos e legais elevados, um erro é um luxo que a empresa não se pode permitir.
Porque é que a OpenAI decidiu parar agora
A promessa de tratar utilizadores adultos como adultos chocou com a realidade do produto. Por detrás das cortinas, os testes internos indicaram margens de erro na verificação da idade superiores ao aceitável. Quando um sistema falha em distinguir adultos de menores num volume de casos material, todo o edifício de moderação desmorona. E aqui não se trata apenas de políticas de uso; estão em causa potenciais danos para adolescentes e, por arrasto, um rasto de responsabilidades legais e reputacionais.
Este recuo não surge num vácuo. A OpenAI tem vindo a reforçar controlos parentais e a ouvir conselhos de equipas de bem‑estar e segurança. As reservas acumuladas – incluindo receios de que a IA pudesse assumir um papel de “terapeuta sexual” para jovens – contribuíram para a decisão. Internamente, alegam-se debates intensos e divergências sobre o timing e a maturidade tecnológica do projeto. No fim, prevaleceu a abordagem conservadora: travão a fundo, com a ordem de priorizar a proteção dos utilizadores mais vulneráveis.
A verificação de idade é o calcanhar de Aquiles
Verificar a idade online parece simples, mas é tudo menos isso. Existem três grandes vias e nenhuma é isenta de custos ou riscos:
- Autodeclaração: é leve e privada, mas trivial de contornar.
- Provas de identidade (documentos, cartão de cidadão, biometria): elevam a fiabilidade, mas introduzem fricção, exclusão de quem não quer ou não pode comprovar identidade e problemas sérios de privacidade e proteção de dados.
- Sinais contextuais (padrões de linguagem, histórico de conta, informação do dispositivo): acrescentam uma camada inteligente, porém sujeita a enviesamentos e enganos, com taxas de falsos positivos/negativos difíceis de reduzir a níveis “quase zero”.
No caso dos grandes modelos de linguagem, há ainda um desafio adicional: a sua capacidade de adaptação permite contornar facilmente instruções rígidas, e utilizadores com criatividade suficiente conseguem “driblar” filtros com reformulações subtis. Quando o conteúdo visado é sexual, o limiar de tolerância a falhas desce para praticamente zero. Uma taxa de erro na casa dos dois dígitos é, portanto, inaceitável para qualquer empresa que queira operar com responsabilidade.
O labirinto legal e reputacional
Do ponto de vista regulatório, há sinais claros de escrutínio crescente. Na União Europeia, o Regulamento dos Serviços Digitais e o futuro enquadramento da IA apertam a malha sobre plataformas e modelos com potencial de causar danos a menores. Nos Estados Unidos e noutros mercados, autoridades e tribunais observam com lupa o comportamento das tecnológicas, especialmente em temas como segurança online, saúde mental e conteúdos para adultos.
Para lá das leis, está a confiança. Marcas que alimentam o ecossistema – de investidores a parceiros comerciais – preferem previsibilidade e comedimento quando o assunto é erotismo virtual. Há concorrentes que avançam com ofertas mais permissivas e poucos travões; contudo, esse caminho tende a atrair polémica, relatos de uso indevido e, em última instância, o risco de proibições e processos dispendiosos. A decisão da OpenAI, embora custosa no curto prazo, posiciona a empresa no lado prudente da história.
Impacto para o mercado e para os utilizadores
Renunciar a um modo adulto não é apenas um gesto simbólico; tem implicações financeiras. O erotismo sempre foi um motor económico da internet e seria ingénuo ignorar o potencial de subscrições e upsells associados a conteúdos para maiores. Ao abdicar desse segmento, a OpenAI abdica também de uma fonte rápida de monetização. Em contrapartida, protege a marca e reforça uma proposta de valor centrada em utilidade, produtividade e educação – áreas onde a tolerância a risco é maior e o retorno, mais sustentável.
Para os utilizadores, o impacto prático depende do perfil. Quem procurava experiências explícitas terá de olhar para outras paragens – com os perigos conhecidos de plataformas menos responsáveis. Para a grande maioria, porém, pouco muda: a versão atual do ChatGPT mantém-se vocacionada para conversa, criatividade, apoio ao estudo e tarefas profissionais, com salvaguardas consistentes e um foco mais nítido na segurança online.
O que pode vir a seguir: caminhos para uma IA responsável
Suspender não significa desistir. Há várias frentes tecnológicas e de produto que podem, com tempo, reduzir o risco a níveis aceitáveis:
- Verificação de idade com privacidade preservada: técnicas como prova de idade criptográfica, validação por terceiros certificados e checks no dispositivo podem minimizar a partilha de dados sensíveis sem sacrificar a fiabilidade.
- Experiências graduais por idade: em vez de um interruptor on/off, modelos que ajustem respostas consoante a confirmação etária, mantendo camadas adicionais de segurança por defeito.
- Moderação multimodal mais robusta: classificadores dedicados ao contexto sexual, calibrados para culturas e línguas diferentes, com auditorias independentes e benchmarks públicos.
- Controlo parental integrado: coordenação com sistemas operativos e lojas de apps para reforçar limites de tempo, filtros e alertas contextuais.
- Educação digital: incluir no produto mensagens claras sobre limites e consentimento, incentivando a procura de relações humanas e fontes especializadas quando o tema é saúde sexual.
No imediato, a orientação é clara: privilegiar a proteção de menores e a confiança do público. A decisão da OpenAI envia um recado ao setor: inovar é importante, mas fazê-lo com responsabilidade é obrigatório. Se e quando o modo adulto regressar, terá de vir acompanhado de provas sólidas de que a tecnologia – e a governação – conseguem ficar à altura da promessa.




Sem Comentários! Seja o Primeiro.