Algoritmo do YouTube continua a recomendar vídeos que não se querem

O YouTube recomenda regularmente vídeos aos utilizadores, mesmo que estes tenham expressado que não estão interessados nesse tipo de conteúdo. Um novo estudo da Mozilla descobriu que isto acontece mesmo quando os utilizadores disseram ao YouTube que não querem ver esse tipo de vídeos.

Quando se trata de recomendações de vídeos do YouTube, os utilizadores parecem ser largamente ineficazes na utilização de botões como “não interessar”, “não gostar” e “remover do histórico de visionamento”, a fim de evitar que vídeos semelhantes sejam recomendados.

Num estudo realizado com mais de 20.000 utilizadores do YouTube, os investigadores da Mozilla descobriram que estes botões permitiram através de mais de metade das recomendações semelhantes àquilo que um utilizador disse não estar interessado.

Para recolher dados de utilizadores reais, os investigadores da Mozilla alistaram voluntários que utilizaram a extensão LretsReporter da fundação. Esta extensão sobrepõe um botão geral de “parar de recomendar” aos vídeos do YouTube vistos pelos participantes. Na parte de trás, foi atribuído aleatoriamente um grupo aos utilizadores, pelo que foram enviados sinais diferentes para o YouTube cada vez que clicaram no botão colocado pela Mozilla. Os botões enviaram sinais diferentes dependendo do grupo em que o utilizador estava, não gostar, não se interessar, não recomendar canal, remover do histórico, e um grupo de controlo para o qual não foi enviado qualquer feedback à plataforma.

Os investigadores do YouTube descobriram que quando um utilizador rejeita um vídeo, é mais provável que lhe seja recomendado um vídeo semelhante no futuro. Para estudar este fenómeno, os assistentes de investigação criaram mais de 44.000 pares de vídeos. Avaliaram então a semelhança do vídeo recomendado com o vídeo que foi rejeitado pelo utilizador.

De acordo com o estudo, os botões “não gosta” e “não está interessado” foram apenas marginalmente eficazes na prevenção de más recomendações. Por outras palavras, estes botões tiveram um impacto limitado em impedir que conteúdos indesejados aparecessem nas listas recomendadas pelos utilizadores. Os botões “não recomendar canal” e “remover da história” foram ligeiramente mais eficazes, mas os investigadores dizem que as ferramentas da plataforma ainda são inadequadas para afastar conteúdos indesejados.

“O YouTube deve respeitar o feedback que os utilizadores partilham sobre a sua experiência, tratando-os como sinais significativos sobre como as pessoas querem gastar o seu tempo na plataforma”, escrevem os pesquisadores.

O YouTube permite intencionalmente a permanência de vídeos relacionados com o terrorismo na sua plataforma, de acordo com os relatório. O relatório diz que embora o YouTube tenha mecanismos de bloqueio de certos conteúdos terroristas, não os utiliza a toda a hora. Isto permite que os vídeos que promovem o terrorismo permaneçam no site e sejam facilmente acessíveis aos utilizadores.

A porta-voz do YouTube, Elena Hernandez, criticou o relatório, dizendo que este não considera a forma como os controlos do YouTube são concebidos. Hernandez disse que a plataforma não tenta bloquear todo o conteúdo relacionado com um tópico, mas, em vez disso, tenta bloquear apenas conteúdo terrorista.

Plataformas como TikTok e Instagram introduziram cada vez mais ferramentas de feedback para os utilizadores treinarem o algoritmo, supostamente, para lhes mostrar conteúdos relevantes. No entanto, os utilizadores queixam-se frequentemente de que mesmo quando assinalam que não querem ver algo, recomendações semelhantes persistem. A investigadora da Mozilla Becca Ricks diz que nem sempre é claro o que os diferentes controlos realmente fazem, e as plataformas não são transparentes sobre a forma como o feedback é tido em conta.

Fonte: Google

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui