A era do vídeo falso: Em 8, apenas uma rede social avisa que é criado por IA
Nos últimos anos, a Inteligência Artificial tem transformado a forma como criamos, consumimos e partilhamos conteúdos online. Mas à medida que as ferramentas se tornam mais poderosas, também cresce o risco de falsificação digital em escala massiva — e a mais recente investigação do The Washington Post expõe um problema preocupante: a maioria das grandes redes sociais ainda não alerta os utilizadores quando estão a ver um vídeo gerado por IA.
Neste artigo encontras:
- A promessa da “marca digital da verdade”
- A experiência que expôs o fracasso
- Um problema de confiança global
- Por que é que as plataformas não cumprem?
- A responsabilidade partilhada: OpenAI, Google e Meta
- Um cenário preocupante: deepfakes e desinformação
- A ironia da “responsabilidade digital”
- A corrida por uma internet autêntica
- Conclusão: entre a inovação e a manipulação
A publicação testou oito das maiores plataformas, incluindo Facebook, TikTok, Instagram, X (Twitter), LinkedIn, Pinterest, Snapchat e YouTube, ao carregar um vídeo criado com o Sora, o gerador de vídeo de última geração da OpenAI. O resultado? Apenas o YouTube sinalizou que o vídeo era sintético — e mesmo assim, de forma discreta, escondendo a nota na descrição.
Este teste levanta uma questão central na era da IA: podemos confiar no que vemos online?
A promessa da “marca digital da verdade”
Há alguns anos, grandes empresas tecnológicas — incluindo Microsoft, Adobe, Google, Meta, a BBC e até a OpenAI — uniram-se para criar uma norma chamada Content Credentials.
A ideia era simples mas poderosa: incluir metadados invioláveis em fotos e vídeos, identificando como e com que ferramentas foram criados. Esses dados, invisíveis ao olho humano, permitiriam saber se o ficheiro foi captado por uma câmara real ou gerado por uma IA.
O sistema foi desenvolvido pela Coalition for Content Provenance and Authenticity (C2PA), uma aliança de peso que prometia trazer transparência e rastreabilidade ao conteúdo digital. Em teoria, as plataformas sociais iriam mostrar esses metadados aos utilizadores, permitindo identificar rapidamente se o vídeo era autêntico.
Mas, na prática, a realidade é outra.
A experiência que expôs o fracasso
O The Washington Post criou um vídeo com o Sora, a ferramenta da OpenAI capaz de gerar imagens e sons fotorrealistas a partir de simples prompts. O vídeo incluía metadados do Content Credentials que indicavam claramente: “Criado com IA generativa” e “Emitido pela OpenAI”.
Esse mesmo ficheiro foi depois carregado em oito plataformas sociais.
O resultado foi alarmante:
-
Nenhuma das plataformas manteve os metadados;
-
Nenhuma, exceto o YouTube, avisou o público de que o vídeo era falso;
-
O YouTube colocou a informação apenas na descrição, num local pouco visível;
-
E em todas as outras, os “marcadores de autenticidade” foram completamente apagados.
Em resumo: mesmo quando a IA tenta identificar-se, as redes sociais apagam a sua própria pegada digital.
Um problema de confiança global
A gravidade da situação vai muito além da técnica. O avanço das ferramentas de IA — como o Sora da OpenAI, o Runway, o Pika ou o Stability Video — torna possível criar vídeos falsos praticamente indistinguíveis da realidade.
O professor Arosha Bandara, da Open University britânica, que estuda o impacto social da IA, explicou ao Post: “Já passámos o ponto em que o público consegue distinguir o que é real do que é fabricado. Precisamos urgentemente de sistemas de identificação fiáveis.”
Nos Estados Unidos, o estado da Califórnia já aprovou uma lei que, a partir de 2026, obriga as plataformas a sinalizar claramente qualquer conteúdo alterado ou criado por IA. Mas até lá, a internet continua a ser um território onde o falso e o real coexistem sem aviso.
Por que é que as plataformas não cumprem?
A resposta é complexa. O padrão Content Credentials é voluntário, e embora empresas como Google, Meta, Microsoft e TikTok façam parte da coligação que o promove, a sua implementação é dispendiosa e tecnicamente exigente.
Além disso, muitas plataformas comprimem ou reformulam os vídeos quando são carregados — um processo que frequentemente elimina os metadados.
Outro motivo é o conflito de interesses: sinalizar que parte do conteúdo é “falso” pode reduzir o envolvimento e o tempo de visualização, métricas vitais para o lucro publicitário das plataformas.
Em suma, a verdade pode ser má para o negócio.
A responsabilidade partilhada: OpenAI, Google e Meta
Curiosamente, todas estas empresas — as mesmas que defendem a transparência — falham na execução.
-
A OpenAI, criadora do Sora e do ChatGPT, assegura que todos os vídeos gerados pela ferramenta incluem Content Credentials e até marcadores invisíveis para deteção interna. Contudo, esses marcadores não são acessíveis ao público.
-
A Google, que gere o YouTube, criou o SynthID, um sistema de marcação de IA invisível, mas também o mantém fechado.
-
Já a Meta e o TikTok anunciaram há mais de um ano que iriam integrar o padrão de marcação — mas até agora, nada foi implementado de forma prática.
O resultado é que o público continua desinformado, mesmo quando o conteúdo foi etiquetado na origem.
Um cenário preocupante: deepfakes e desinformação
A ausência de transparência na identificação de vídeos gerados por IA tem consequências graves.
Num mundo onde qualquer pessoa pode criar deepfakes realistas de políticos, celebridades ou acontecimentos inexistentes, a manipulação da perceção pública torna-se uma ameaça real — sobretudo em ano de eleições nos EUA e na Europa.
Imagine-se, por exemplo, um vídeo convincente de um candidato a fazer declarações polémicas, partilhado milhões de vezes em poucas horas antes de uma votação. Mesmo que depois seja desmentido, o dano está feito.
Sem sistemas eficazes de marcação e alerta, a desinformação alimentada por IA pode tornar-se incontrolável.
A ironia da “responsabilidade digital”
É irónico que a OpenAI, empresa que se apresenta como líder em segurança e ética na IA, forneça a tecnologia para criar vídeos falsos ultra-realistas e, simultaneamente, admita que os mecanismos de verificação não funcionam.
Mesmo o seu sistema de marca d’água visível — o logótipo da OpenAI nos vídeos do Sora — já pode ser removido facilmente através de ferramentas online.
Pior: a versão profissional do Sora permite descarregar vídeos sem qualquer marca visível ou metadados, tornando-os indistinguíveis de filmagens reais.
Enquanto isso, a própria OpenAI reconhece, num comunicado intitulado “Launching Sora responsibly”, que “a adoção do padrão Content Credentials levará tempo”.
Tempo que, na era da IA, pode significar o colapso da confiança digital.
A corrida por uma internet autêntica
Apesar das falhas, há sinais positivos. Grupos como a C2PA e a Adobe’s Content Authenticity Initiative continuam a trabalhar para tornar o rastreamento de conteúdo mais robusto.
Entretanto, legisladores e académicos pedem leis mais rígidas que obriguem plataformas a informar claramente quando o conteúdo é gerado ou manipulado por IA.
Mas até essas soluções se tornarem realidade, os utilizadores terão de adotar uma nova literacia digital: questionar, verificar e desconfiar.
Como disse Bandara, “pode chegar o dia em que todo o conteúdo online será considerado falso até prova em contrário”.
Conclusão: entre a inovação e a manipulação
O experimento do Washington Post revela algo fundamental sobre a era digital que vivemos: a tecnologia evolui mais rápido do que a ética ou a regulamentação.
As ferramentas de IA prometem criatividade e eficiência, mas sem transparência, tornam-se também instrumentos de manipulação.
Enquanto empresas como a OpenAI, Google e Meta continuam a promover o discurso da responsabilidade, o simples facto de um vídeo claramente falso circular sem aviso em sete das oito maiores plataformas do mundo mostra que o sistema ainda falha no essencial: a verdade.
E se o público deixar de confiar no que vê, a própria noção de “realidade digital” poderá desintegrar-se.





Sem Comentários! Seja o Primeiro.