Google nega ler Gmail dos utilizadores para treinar IA
Nos últimos dias, multiplicaram-se alertas nas redes sociais e fóruns a dar conta de que a Google estaria a vasculhar as caixas de entrada dos utilizadores para treinar os seus modelos de inteligência artificial, nomeadamente o Gemini.
A origem do ruído? Uma leitura apressada de novidades ligadas às funcionalidades inteligentes do Gmail, como explica a Futurism. O tema tocou num nervo sensível: privacidade, consentimento e a sensação de que as grandes empresas de tecnologia estão a enfiar a IA à força em tudo o que mexe.
Uma publicação de uma conhecida empresa de cibersegurança levantou suspeitas ao sugerir que novas opções dariam aos modelos de IA acesso a mensagens e anexos. O texto correu mundo, foi citado e comentado, e, como tantas vezes acontece, a verdade perdeu-se no caminho. Mais tarde, a própria empresa corrigiu e clarificou: a forma como a Google apresentou e reformulou certas opções levou muita gente a concluir que o conteúdo do Gmail podia estar a ser usado para treinar modelos de IA de forma automática. Após rever documentação oficial e outras fontes, os autores reconheceram que essa conclusão não batia certo com os factos.

A posição oficial é direta: o conteúdo do Gmail não é utilizado para treinar o modelo Gemini. As chamadas “funcionalidades inteligentes”, como respostas sugeridas, categorização automática, deteção de spam e organização de eventos, existem há anos e dependem do processamento do conteúdo para funcionarem, mas isso é diferente de alimentar, de forma ampla, um grande modelo de IA com as tuas mensagens. Segundo a empresa, não alterou definições dos utilizadores sem aviso e compromete-se a comunicar mudanças de políticas de forma transparente.
Mesmo que, neste caso, a acusação não se confirme, o contexto não ajuda. Várias plataformas atualizaram discretamente os seus termos de serviço para permitir o uso de dados de utilizadores no treino de IA. Casos reportados incluem serviços como o SoundCloud ou o WeTransfer. Resultado: erosão da confiança, fadiga com pop-ups de consentimento e um ceticismo crescente sempre que surge uma “nova experiência impulsionada por IA”.
É útil separar conceitos:
– Treino de modelos: usar grandes volumes de dados para ensinar um sistema a reconhecer padrões de forma generalizada. É um processo que tipicamente não é específico do teu perfil.
– Processamento para funcionalidades: analisar o conteúdo da tua conta para te dar conveniências (por exemplo, sugerir uma resposta curta ou detetar um recibo). Este processamento é necessário para o serviço funcionar, mas não implica, por si só, que o texto vá parar ao conjunto de dados de treino do modelo base.
– Sinais agregados e anonimização: algumas empresas recolhem métricas agregadas para melhorar produtos sem identificar utilizadores. A forma como isto é feito e explicado é o que separa boas práticas de violações de confiança.
Fonte: Futurism




a google usa e abusa dos dados pessoais seus utilizadores para venda dados a todas xafaricas (PRINCIPALMENTE ” xafaricas de jogos on-l8ne e afins, bem como de oferta de prostituição) POR ISSO E CONTRARIAMENTE AO QUE AQUI AFIRMA FORAM MULTADOS U.E.
EU JÁ PARTICIPEI DIIVERSAS VEZES AO MEU DEPUTADO NO PARLAMENTO EUROPEU
ASSIM OUTROS UTILIZADORES O FIZESSEM