ChatGPT Viola RGPD: Indiferença Pode Acordar Gigante Europeu

A relação entre a inovação tecnológica e a privacidade dos dados é uma dança delicada, onde cada passo deve ser meticulosamente calculado para não pisar os limites legais. No palco europeu, a OpenAI, empresa responsável pelo ChatGPT, enfrenta um desafio coreográfico complexo, tentando alinhar-se com as rígidas diretrizes do Regulamento Geral de Proteção de Dados (RGPD).

A agência italiana de proteção de dados foi uma das primeiras a levantar a bandeira vermelha contra o ChatGPT, chegando a proibir temporariamente o seu uso em 2023. A preocupação? A plataforma poderia fornecer informações incorretas sobre indivíduos, uma violação do artigo 5 do RGPD que proíbe a desinformação. Após alguns ajustes por parte da OpenAI, a atividade do chatbot foi retomada, mas especialistas em proteção de dados ainda veem as medidas como insuficientes.

O cerne da questão reside na capacidade do ChatGPT de “inventar” dados, com taxas de invenção variando entre 3% e 27%, segundo o New York Times. Esta característica coloca a OpenAI numa posição delicada, pois o RGPD exige que os utilizadores possam solicitar a retificação de dados e que as empresas demonstrem transparência quanto às fontes e informações que possuem sobre cada indivíduo algo que, até o momento, a OpenAI não conseguiu garantir plenamente aos utilizadores europeus.

A NOYB None of Your Business organização de defesa dos direitos digitais fundada pelo ativista Max Schrems, é uma das vozes mais ativas neste debate. Com um histórico de influenciar mudanças significativas, como a anulação do Privacy Shield e desafios legais contra gigantes como Facebook, Google e Apple, a NOYB apresentou um processo contra a OpenAI perante a agência austríaca de proteção de dados. A organização procura ativar um processo que poderia resultar numa multa de até 4% da faturação anual global da OpenAI, conforme estipulado pela Lei de Serviços Digitais europeia.

A OpenAI, por sua vez, argumenta que não é capaz de controlar totalmente o que criou. A IA pode aplicar filtros ou bloquear determinados prompts, mas alterar a base do modelo é uma tarefa que escapa à sua capacidade atual. Esta limitação técnica é um ponto crítico na discussão sobre a conformidade com o RGPD.

Enquanto isso, as autoridades de proteção de dados parecem estar num impasse. O processo da NOYB surge como uma resposta a essa paralisação, pressionando para que a Europa exija que a OpenAI se adapte ou enfrente as consequências financeiras. Apesar da criação de um grupo de trabalho pelo EDPB e pela Espanha para investigar o ChatGPT, pouco progresso foi divulgado, e o uso do chatbot continua a crescer na Europa.

Pessoalmente, considero que a OpenAI deve intensificar os seus esforços para cumprir as normativas europeias, pois a confiança dos utilizadores e a legitimidade do uso de IA dependem de um equilíbrio entre inovação e respeito à privacidade. A capacidade de retificar dados e a transparência nas fontes de informação são pilares fundamentais desse equilíbrio. Acompanharei com interesse os próximos capítulos desta história, esperando que resultem num consenso que favoreça tanto o avanço tecnológico quanto a proteção dos dados pessoais.

Fonte: nytimes

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui