Apple: Há mais uma empresa a proibir o ChatGPT

A Apple decidiu restringir o uso de ferramentas de inteligência artificial como o ChatGPT da OpenAI e o Copilot da GitHub por preocupações com fugas de informações. A OpenAI armazena todas as interações entre utilizadores e o ChatGPT, mesmo com a opção de histórico de chat desativada. A Apple talvez esteja preocupada que os seus funcionários possam inserir informações confidenciais no ChatGPT, que podem ser vistas pelos moderadores.

Essa medida da Apple não é única, outras empresas como Samsung, JP Morgan, Verizon e Amazon também instituíram proibições semelhantes. A OpenAI chegou a lançar um aplicativo para iOS para o ChatGPT, no entanto, a proibição da Apple ainda permanece.

Essa decisão da Apple demonstra a preocupação crescente das empresas com a segurança de informações confidenciais. Com o crescente uso de inteligência artificial em diversos setores, as empresas precisam estar cada vez mais atentas ao uso dessas ferramentas, para que não exista violação de dados confidenciais e informações importantes.

É importante frisar que, não só no uso de inteligência artificial, mas em todas as ferramentas de comunicação digital, as empresas precisam de estar atentas a possíveis fugas de informações, seja por descuido dos funcionários, seja por falhas de segurança dos sistemas utilizados. Investir em treinamentos e conscientização dos funcionários, assim como em tecnologias de segurança, são medidas importantes para minimizar os riscos de fuga de informações.

Em abril, o OpenAI lançou um recurso que permite aos utilizador desativar o histórico de conversas (coincidentemente, não muito depois de vários países da UE começarem a investigar a ferramenta para possíveis violações de privacidade), mas mesmo com essa configuração ativada, o OpenAI ainda retém as conversas por 30 dias com a opção de o rever “por abuso” antes de os excluír permanentemente.

Essas informações podem ser vistas por um dos moderadores do OpenAI. A pesquisa mostra que também é possível extrair dados de treino de alguns modelos de linguagem usando a sua interface de conversas, embora não exista evidências de que o próprio ChatGPT seja vulnerável a esses ataques.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui