Funcionários da Samsung terão partilhado informações sensíveis no ChatGPT

Nos últimos tempos, temos assistido a um desenvolvimento significativo da inteligência artificial (IA) e da forma como esta é utilizada pelas empresas. Uma das áreas em que a IA tem sido aplicada consiste na criação de chatbots, que permitem a comunicação rápida e eficiente entre clientes e empresas.

Mas nem tudo são rosas e, recentemente, a gigante eletrônica Samsung teve um vazamento de dados envolvendo três de seus funcionários e a ChatGPT da OpenAI.

De acordo com as informações divulgadas, a Samsung passou por um incidente de violação de dados envolvendo três funcionários e o ChatGPT da OpenAI. Para evitar que situações semelhantes ocorram no futuro, a empresa decidiu implementar uma nova resposta que limita a quantidade de dados que cada funcionário pode enviar para o chatbot. Embora esta decisão seja louvável, existem outros problemas associados ao uso de chatbots alimentados por IA.

Os especialistas em privacidade têm alertado para o facto de que não é seguro partilhar informações sensíveis com qualquer chatbot alimentado por IA. Isto prende-se com o facto de que os programadores nem sempre são capazes de apagar informações que são inseridas no sistema. Como consequência, estas informações podem ser armazenadas e utilizadas para fins maliciosos.

Outra questão a ser considerada é a forma como os chatbots alimentados por IA aprendem e evoluem. De acordo com a OpenAI, a empresa responsável pela criação do ChatGPT, todos os dados inseridos no sistema são armazenados e utilizados para melhorar a precisão e a funcionalidade do chatbot. Embora os utilizadores possam optar por não partilhar o seu histórico, todas as informações que são inseridas são armazenadas no servidor da OpenAI. Isto significa que a empresa pode utilizar estes dados para melhorar os seus produtos e serviços, mas também para outros fins, sem que os utilizadores tenham conhecimento.

Perante esta situação, é importante que as empresas e os utilizadores sejam cautelosos na forma como utilizam os chatbots alimentados por IA. Estes devem ser vistos como uma ferramenta útil, mas com potenciais riscos associados. É fundamental que os programadores e as empresas garantam a segurança dos dados e a privacidade dos utilizadores, bem como a precisão e a qualidade das informações que são fornecidas aos clientes.

Segundo o The Economist Korea, um trabalhador da Samsung pediu ao chatbot para verificar dados sensíveis no código de uma base de dados para erros, outro pediu uma otimização de código fonte e um terceiro colocou uma gravação de uma reunião online e pediu ao bot para gerar um resume.

Em suma, a situação envolvendo a Samsung e a OpenAI’s ChatGPT é uma chamada de atenção para todos aqueles que estão interessados em utilizar chatbots alimentados por IA.

Fonte: TechRadar

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui