Por que razão a UE terá dificuldade em legislar sobre a IA

nião Europeia está a considerar proibir temporariamente as tecnologias de reconhecimento facial em espaços públicos até que os riscos potenciais sejam melhor compreendidos. A Inteligência Artificial (IA) – especialmente a machine learning – é uma tecnologia que se está a espalhar rapidamente pelo mundo. A IA tornar-se-á uma ferramenta padrão para ajudar a orientar os automóveis, melhorar os cuidados médicos ou automatizar a tomada de decisão dentro das autoridades públicas. Embora as tecnologias inteligentes sejam impulsionadoras da inovação e do crescimento, a sua proliferação global já está a causar graves danos.

Empresas globais, governos e organizações internacionais reagiram a estas tendências preocupantes através da criação de conselhos de ética da IA, charters, comités, orientações, etc., tudo para resolver os problemas que esta tecnologia apresenta – e a Europa não é exceção. A Comissão Europeia criou um grupo de peritos de alto nível em IA para elaborar orientações sobre ia ética. Infelizmente, um debate ético, por si só, não ajudará a remediar a destruição causada pela rápida propagação da IA em diversas facetas da vida. Mas muitas tecnologias de IA, para além do reconhecimento facial, merecem mais preocupação, especialmente dos decisores políticos europeus.

Cada vez mais especialistas têm escrutinado a ameaça que as tecnologias “Deep Fake” podem representar para a democracia, permitindo a desinformação artificial; consideremos por exemplo o Cartão de Crédito da Apple que concede pontuações de crédito muito mais altas aos maridos quando comparados com as suas esposas, mesmo que partilhem ativos. O mais recente exemplo desta falha é a Microsoft, um dos maiores produtores de serviços de IA do mundo. A Microsoft, que muitas vezes tem tentado separar-se dos seus homólogos da Big Tech como líder moral, assumiu recentemente o seu investimento substancial  em software de reconhecimento facial que é usado para fins de vigilância. “AnyVision” está alegadamente a ser usada por Israel para localizar palestinianos na Cisjordânia.

Embora investir nesta tecnologia vá diretamente contra os princípios éticos declarados da Microsoft sobre o reconhecimento facial, não há retorno. Isto demonstra que a IA que rege a IA – especialmente as tecnologias exportadas ou as que se implantam além-fronteiras – através de princípios éticos não  funciona. No entanto, isto vem com perigos específicos, que são mostrados em numerosos relatórios de grupos de advocacia e cães de guarda dizendo que as tecnologias são imperfeitas e proporcionam mais partidas falsas desproporcionadamente para as mulheres e tons de pele mais escuros.

Se as agências de aplicação da lei sabem que estas tecnologias têm o potencial de serem mais prejudiciais para os sujeitos mais frequentemente vulneráveis e marginalizados, então devem existir normas adequadas para a aplicação do reconhecimento facial em áreas tão sensíveis.

As orientações éticas – nem as que vêm da Big Tech nem as que vêm de partes interessadas internacionais – não são suficientes para proteger os cidadãos de práticas invasivas, tendenciosas ou prejudiciais de polícias ou forças de segurança. Apesar de estes problemas terem rodeado tecnologias de IA em anos anteriores, isso ainda não resultou num regulamento bem sucedido para tornar a IA “boa”” ou “ética” – termos que significam bem mas são incrivelmente difíceis de definir, especialmente a nível internacional. É por isso que, embora os intervenientes do sector privado, do governo, da academia e da sociedade civil tenham vindo a exigir orientações éticas no desenvolvimento da IA, estas discussões continuam vagas, abertas à interpretação, não universais e, mais importante, inexequível.

Para pôr termo ao paradigma mais rápido do desenvolvimento da IA e de remediar alguns dos danos sociais já causados, precisamos de estabelecer regras para a utilização da IA que sejam fiáveis e exequíveis. E os argumentos fundados em ética não são suficientemente fortes para o fazer; princípios éticos não resolvem estes danos de uma forma concreta.

O caso da Microsoft é apenas uma gota no balde.Numerosos casos continuarão a surgir ou a ser descobertos nos próximos anos em todos os cantos do globo – dada a sua imprensa funcional e livre, claro. Este problema é especialmente proeminente no software de reconhecimento facial, como reflete o debate europeu. Desenvolvidos em Big Tech, os produtos de reconhecimento facial têm sido adquiridos por agências governamentais como oficiais de alfândega e migração, agentes da polícia, forças de segurança, militares, entre outros. Isto é verdade para muitas regiões do mundo: como na América, no Reino Unido, bem como em vários estados em África, ásia e muito mais.

Prometendo métodos mais eficazes e precisos para manter a paz, as agências de aplicação da lei adotaram o uso da IA para sobrecarregar as suas capacidades.

No mês passado, um livro branco ´escapado´ mostrou que a União Europeia está a considerar proibir temporariamente as tecnologias de reconhecimento facial em espaços públicos até que os riscos potenciais sejam melhor compreendidos. Direitos humanos internacionais de resgate? Enquanto não dispormos de regras que funcionem, devemos, pelo menos, utilizar orientações que já existem para proteger as sociedades vulneráveis da melhor forma possível. É aqui que o quadro jurídico internacional dos direitos humanos pode ser determinante.

Deveríamos discutir estes danos indevidos como violações dos direitos humanos, utilizando quadros jurídicos internacionais e linguagem que tem um consenso de grande alcance entre diferentes nações e contextos culturais, baseia-se numa retórica consistente, e está, em teoria, em teoria. executável. O desenvolvimento da IA tem de promover e respeitar os direitos humanos das pessoas em todo o lado, não continuar a prejudicar a sociedade a um ritmo e uma escala crescentes.

Devem existir normas de base nas tecnologias da IA, que estão em conformidade com os direitos humanos. Documentos como a Declaração Universal dos Direitos do Homem e os Princípios Orientadores das Nações Unidas que orientam o comportamento do sector privado de formas compatíveis com os direitos humanos têm de fixar a fasquia a nível internacional. É aqui que a UE pode dar o exemplo. Ao concentrar-se nestas convenções e princípios existentes, o investimento da Microsoft na AnyVision, por exemplo, seria visto não só como uma violação direta dos seus princípios internos, mas também como uma violação dos princípios orientadores das Nações Unidas, forçando o internacional comunidade para escrutinar as atividades comerciais da empresa de forma mais profunda e sistemática, idealmente levando à reparação. Mais rápido não é melhor.

O rápido desenvolvimento e divulgação dos sistemas de IA provocou danos sem precedentes e irreversíveis a indivíduos em todo o mundo. A IA proporciona, de facto, um enorme potencial para revolucionar e melhorar os produtos e serviços, e esse potencial deve ser aproveitado de uma forma que beneficie todos.

Fonte: Euobserver

Quer saber outras novidades? Veja em baixo as nossas Sugestões

Quer saber outras novidades? Veja em baixo as nossas Sugestões

DEIXE UMA RESPOSTA

Please enter your comment!
Please enter your name here