Num mundo cada vez mais digital, a inteligência artificial (IA) tem vindo a assumir um papel de destaque em diversas áreas, desde a medicina até ao entretenimento. Uma das ferramentas que tem captado a atenção de milhões é o ChatGPT, um chatbot desenvolvido pela OpenAI, que está a transformar a forma como interagimos com a tecnologia.
O ChatGPT tem-se revelado uma ferramenta multifacetada, capaz de auxiliar os utilizadores em tarefas tão variadas como para uma preparação para entrevistas de trabalho ou até mesmo para resumos de reuniões. No entanto, com a sua crescente popularidade, surge uma questão premente: a segurança das conversas mantidas com este assistente virtual.
A OpenAI, liderada por Sam Altman, tem a capacidade de utilizar os dados das conversas para aperfeiçoar os seus modelos de IA. Embora isso possa ser desativado ou mitigado através da versão paga ChatGPT Enterprise, a verdade é que as conversas podem estar expostas a olhares indesejados, seja por parte de funcionários da empresa ou, pior ainda, de cibe delinquentes.
Um estudo realizado pelo Laboratório de Investigação de IA Ofensiva da Universidade Ben-Gurion em Israel trouxe à luz um cenário preocupante. Imagine-se a usar o ChatGPT numa rede Wi-Fi pública. Sem se aperceber, pode estar a fornecer a um atacante a oportunidade de interceptar o tráfego de dados e deduzir as respostas do chatbot. Este tipo de ataque, conhecido como “Side-channel attack”, explora a transmissão sequencial e cifrada dos tokens (unidades de texto) para inferir informações.
O processo de ataque desenrola-se em quatro etapas: interceptação do tráfico, filtragem dos pacotes para encontrar as respostas do ChatGPT, revelação da longitude dos tokens e, finalmente, a inferência das respostas utilizando um Modelo de Linguagem de Longa Duração (LLM). Este último passo é crucial, pois permite ao atacante prever com precisão as respostas geradas pelo ChatGPT, mesmo que as palavras possam variar ligeiramente.
A segurança dos nossos dados nunca deve ser tomada como garantida, especialmente quando utilizamos ferramentas de IA como o ChatGPT. A técnica descrita pelos investigadores não se limita apenas ao ChatGPT, mas estende-se a outros bots que operam de forma semelhante. No entanto, sistemas como o Gemini da Google, que possuem uma arquitetura diferente, não são afetados por este tipo de ataque.
O ChatGPT é, sem dúvida, uma ferramenta revolucionária que está a abrir novos horizontes no campo da inteligência artificial. A sua capacidade de auxiliar em diversas tarefas do dia-a-dia é notável, mas não podemos ignorar os riscos associados à segurança das nossas conversas.
Na minha opinião, é fundamental que tanto os utilizadores como as empresas desenvolvedoras de IA estejam cientes destes riscos e trabalhem juntos para reforçar a segurança e a privacidade. Enquanto utilizadores, devemos ser prudentes, evitando partilhar informações sensíveis e utilizando redes seguras.
Fonte: arxiv.org