A indústria prepara-se para mais uma reviravolta: a OpenAI estará a desenhar um dispositivo de áudio inteligente com o nome de código Sweet Pea. Mais do que “mais uns earbuds”, o projeto aponta para um novo formato e um novo paradigma — um assistente persistente, sempre presente, que vive no nosso ouvido e trabalha sobretudo em modo local.
A cereja no topo? O design terá a mão de Jony Ive, histórico responsável por produtos icónicos da Apple. Vamos por partes.
Um salto do software para o hardware que faz sentido
A OpenAI conquistou o mundo com modelos de linguagem e assistentes conversacionais, mas há muito que se fala numa aposta em hardware. Se os rumores se confirmarem, o Sweet Pea será a primeira materialização desse plano, unindo IA conversacional, sensores e design industrial num objeto pensado para o dia a dia.
A ligação a Jony Ive não é um detalhe: além do prestígio, sugere uma preocupação profunda com ergonomia, materiais e aquela simplicidade visual que convida à utilização constante.
Design fora da caixa: “pedra” metálica e módulos atrás da orelha
Em vez do formato intra-auricular tradicional, as informações apontam para um conjunto em duas peças: uma unidade principal com aspeto de seixo metálico e dois módulos tipo cápsula que assentam discretamente atrás das orelhas. Porque é que isto importa? Primeiro, abre espaço físico para componentes que raramente cabem num earbud normal — chips mais potentes, sensores adicionais, baterias maiores.
Segundo, alivia a pressão no canal auditivo, potencialmente melhorando o conforto em utilizações prolongadas. Terceiro, a distribuição do peso poderá estabilizar o conjunto durante movimento, algo crítico para quem usa auscultadores o dia inteiro.
IA no dispositivo: 2 nm, baixa latência e menos ida à nuvem
O coração tecnológico do Sweet Pea será, alegadamente, um processador de 2 nm concebido para executar a maior parte das tarefas de IA no próprio dispositivo. Isto traz vantagens claras:
- Privacidade reforçada: menos dados sensíveis a sair do equipamento.
- Respostas mais rápidas: ao eliminar viagens constantes à nuvem, reduz-se a latência.
- Utilidade offline: comandos, transcrição e ações simples podem funcionar mesmo sem rede.
É a visão do “computador ambiente”: em vez de desbloquear o telemóvel para tudo, a interação é feita por voz e contexto. O papel do smartphone passa a secundário em tarefas quotidianas como iniciar uma chamada, responder a mensagens, gerir lembretes, ditar notas, controlar música, traduzir conversas ou obter informação imediata sobre o que nos rodeia.
Microfones e câmaras sempre atentos: benefícios e dilemas
Os relatos referem um conjunto de microfones — e possivelmente câmaras — que mantêm consciência do ambiente. O objetivo é dispensar palavras-chave do tipo “Hey…” e oferecer ajuda proativa: reconhecer que estamos a atravessar a rua e reduzir o volume, perceber que entrámos numa reunião e sugerir um modo silencioso, ou identificar que falamos outra língua e ativar tradução. É aqui que o projeto ganha ambição… e levanta questões:
- Privacidade: mesmo com processamento local, captar áudio e imagem em permanência obriga a controlos visíveis, luzes de estado, modos de privacidade e um centro de permissões claro.
- Regulação: na UE, o cumprimento do RGPD e da AI Act exige transparência extrema sobre o que é recolhido, onde é tratado e como é guardado.
- Etiqueta social: tal como aconteceu com wearables com câmara, é preciso evitar a sensação de “estar sempre a ser filmado”.
Se a OpenAI acertar na comunicação e nas salvaguardas, pode transformar um potencial receio numa vantagem competitiva.
Pode substituir o telemóvel nas tarefas básicas?
Ninguém está a dizer que o Sweet Pea vai matar o smartphone. Mas há sinais de que pode canibalizar uma parte considerável das interações rápidas:
- Mensagens e chamadas por voz, sem tirar o telemóvel do bolso.
- Controlos de apps e serviços com comandos conversacionais.
- Assistência contextual: “marca táxi”, “paga o café”, “grava esta ideia”, “qual é o trânsito até casa?”.
Se o modelo de IA entender contexto, histórico e localização — e se as integrações com serviços forem profundas — o utilizador ganhará fluidez. A chave será a resistência da bateria e a fiabilidade do reconhecimento em ambientes ruidosos.
2028 no horizonte: ambição vs. realidade
Fala-se numa janela de lançamento para setembro de 2028 e numa meta arrojada de 40 a 50 milhões de unidades no primeiro ano. É um objetivo de escala digna de um topo de gama da Apple ou Samsung, não de uma nova categoria. Muita coisa pode mudar até lá: maturidade dos chips de 2 nm, regulação da IA, evolução de concorrentes, custos de produção e, claro, a própria apetência do público por um dispositivo sempre atento.
Ainda assim, uma cadência longa também permite fechar parcerias com operadores, fabricantes de smartphones e plataformas de serviços — algo essencial para o sucesso de um produto tão integrado.
Impacto no mercado: AirPods na mira, mas não só
A referência direta aos AirPods é inevitável: dominam a categoria e são o benchmark em integração com smartphone. Porém, o Sweet Pea, se seguir este conceito, não disputa apenas som; disputa o “momento de interação”. É concorrência aos AirPods, aos assistentes de voz tradicionais, a tradutores dedicados, a gravadores de notas, até a óculos inteligentes em certas tarefas.
Apple, Samsung, Sony e empresas de áudio hi‑fi poderão responder com mais IA no dispositivo, melhores modos de transparência e microfones beamforming mais sofisticados. A próxima corrida não é só pela melhor qualidade de som — é pela melhor experiência de conversa com a máquina.
Conclusão: o ouvido como novo ecrã
Se a OpenAI levar o Sweet Pea até à linha de meta com o nível de polimento que o nome Jony Ive faz antecipar, poderemos estar perante a primeira grande “máquina de IA pessoal” de massas. Um objeto que escuta, vê, compreende e ajuda sem pedir licença a cada segundo — mas que, para ser aceite, terá de colocar o utilizador no comando total da privacidade.
2028 parece longe, mas as peças estão a mexer. E o ouvido pode mesmo tornar-se o novo ecrã.
FAQ
P: O que é o Sweet Pea?
R: Um projeto de auscultadores/earbuds de IA da OpenAI, pensado para interação por voz e assistência contextual, com forte aposta em processamento local.
P: Quem está por trás do design?
R: Os relatos apontam para Jony Ive e a sua equipa, sugerindo um foco apurado em ergonomia, materiais e simplicidade de uso.
P: Em que se diferencia de earbuds tradicionais?
R: Formato híbrido com módulos atrás da orelha, espaço para chips mais potentes, sensores adicionais e uma experiência centrada na conversa, não só na reprodução de áudio.
P: Vai precisar de dizer “Hey…” para acordar?
R: A ideia é dispensar palavras de ativação, recorrendo a consciência do ambiente para oferecer ajuda proativa — com controlos de privacidade indispensáveis.
P: Quando poderá chegar ao mercado?
R: A janela indicada nos rumores é setembro de 2028, um horizonte que dá tempo para maturar tecnologia, parcerias e certificações.
P: Pode substituir o smartphone?
R: Não totalmente. O objetivo é reduzir fricções e assumir tarefas rápidas por voz, deixando o ecrã para momentos que exigem visualização e controlo detalhado.
Fonte: Gizmochina





























