Slack utiliza Mensagens Privadas para Treinar a sua Inteligência Artificial
Nos últimos tempos, a tecnologia tem avançado a passos largos, trazendo consigo uma série de inovações que visam facilitar a nossa vida diária. No entanto, com essas inovações, surgem também preocupações legítimas sobre a privacidade e a segurança dos nossos dados. Um exemplo recente e bastante ilustrativo desta problemática envolve a plataforma Slack, amplamente utilizada para comunicação empresarial, ao lado do Microsoft Teams.
Recentemente, veio a público que o Slack tem utilizado os dados dos seus clientes, incluindo mensagens e arquivos privados, para treinar modelos de Inteligência Artificial (IA). Esta prática, que está a ser realizada por defeito e sem um consentimento explícito dos utilizadores, levanta sérias questões sobre a privacidade e o controlo sobre os dados pessoais e empresariais.
Este caso sublinha o risco inerente ao desenvolvimento de ferramentas de IA que se alimentam de grandes volumes de dados dos utilizadores, muitas vezes de maneira pouco transparente. Levanta-se, assim, uma questão fundamental sobre o nível de controlo que indivíduos e empresas realmente possuem sobre as suas informações em serviços baseados na nuvem.
I'm sorry Slack, you're doing fucking WHAT with user DMs, messages, files, etc? I'm positive I'm not reading this correctly. pic.twitter.com/6ORZNS2RxC
— Corey Quinn (@QuinnyPig) May 16, 2024
Numa tentativa de esclarecer a sua posição, o Slack revelou numa página pouco acessível do seu site que os seus sistemas analisam os dados dos clientes para treinar novos modelos de IA. A única maneira de uma empresa se excluir deste processo é através de um pedido de opt-out global, enviado por um administrador de equipe via e-mail, uma opção que não está disponível para os utilizadores individuais.
Apesar do Slack afirmar que possui controlos técnicos para evitar o acesso indevido a certos tipos de conteúdo, a verdade é que a utilização de chats privados e arquivos confidenciais para alimentar sistemas de IA representa um risco significativo. A empresa tentou tranquilizar os seus utilizadores, argumentando que utiliza essas técnicas para melhorar funcionalidades como recomendações de canais e emojis, mas isso não elimina as preocupações com a privacidade.
A necessidade de aceder a conversas privadas para funções aparentemente triviais, como a sugestão de emojis, levanta dúvidas sobre as verdadeiras intenções e a segurança dos dados dos utilizadores. A promessa de que os dados são “anonimizados e agregados” não é suficiente para dissipar o risco de vazamentos de informação.
Na minha opinião, é imperativo que as empresas desenvolvam e implementem práticas mais éticas e transparentes no que toca à gestão de dados dos utilizadores. A confiança é um elemento fundamental na relação entre empresas e clientes, e práticas que colocam em risco a privacidade e a segurança dos dados podem comprometer seriamente essa confiança. É crucial que haja um equilíbrio entre o desenvolvimento tecnológico e a proteção dos direitos dos utilizadores, garantindo que a inovação não se faça à custa da nossa privacidade.



Sem Comentários! Seja o Primeiro.