Tecnologia Responsável já não é só uma opção

As estatísticas falam por si. Enquanto em 2019, apenas 5% das organizações tinham criado uma carta de ética que enquadrava a forma como os sistemas de IA devem ser desenvolvidos e usados, a proporção subiu para 45% em 2020. Palavras-chave como “human agency”, “governance”, “accountability” ou “non-discrimination” estão a tornar-se componentes centrais dos valores de IA de muitas empresas.

O conceito de tecnologia responsável, ao que parece, está lentamente a trilhar o seu caminho a partir de salas de conferências, para as salas de reuniões. O COVID-19 veio derrubar completamente a abordagem tradicional do trabalho. À medida que a economia começa a reabrir pós-pandemia, o novo normal do trabalho, viagens de negócios, e espaço de escritório está a ser redefinido e descoberto através de indústrias.

Agora, mais ainda, para Lasana Harris, investigadora em psicologia experimental na University College London (UCL), a forma como uma empresa apresenta publicamente
objetivos e valores algorítmicos é fundamental para ganhar os favores dos clientes. Ser cauteloso com as práticas das empresas com fins lucrativos é um incumprimento para muitas pessoas, explicou durante um webinar recente; e o potencial intrusivo que as ferramentas de IA carregam, significa que as empresas devem investir as atenções em ética para tranquilizar os seus clientes.

“A maioria das pessoas pensa que as empresas com fins lucrativos estão a tentar explorar-te, e a perceção comum da IA tende a decorrer disso”, diz Harris. “As pessoas temem que a IA seja usada para efeitos ´troll´ dos seus dados, invadir a sua privacidade, ou aproximar-se demasiado deles.”

“Tem a ver com os objetivos da empresa”, continuou. “Se o cliente perceber boas intenções da empresa, então a IA será vista de uma forma positiva. Por isso, tem de se certificar de que os objetivos da sua empresa estão alinhados com os interesses dos seus clientes.” Outros exemplos que investem menos nesta ética, não devem desencorajar as empresas que estão dispostas a investir em IA, defende Mills. “Muitos executivos veem a IA responsável como uma mitigação de riscos”, diz.

“São motivados pelo medo de danos reputacionais. Mas não é assim que deve ser encarado. O caminho certo , é como uma grande oportunidade para diferenciação de marca, fidelização do cliente e, em última análise, benefícios financeiros a longo prazo.” De acordo com pesquisas recentes da consultora Capgemini, cerca de metade dos clientes reportam de forma encorajadora a confiar em interações ativadas pela IA com organizações – mas esperam que esses sistemas de IA expliquem claramente as suas decisões, e as organizações sejam responsáveis se os algoritmos correrem mal.

Não há praticamente nenhum grande ´player´de tecnologia que não tenha experimentado alguma forma de divergências com um ´developer´ nos últimos cinco anos. Funcionários do Google, por exemplo, revoltaram-se contra o gigante da busca quando foi revelado que a empresa estava a fornecer ao Pentágono o reconhecimento de tecnologia para usar em drones militares. Depois de alguns dos manifestantes terem decidido demitir-se, a Google abandonou o contrato. No mesmo ano, um grupo de funcionários da Amazon escreveu a Jeff Bezos para lhe pedir que parasse a venda de software de reconhecimento facial à polícia.

Mais recentemente, o engenheiro de software Seth Vargo retirou um dos seus projetos pessoais, ao GitHub depois de descobrir que uma das empresas que usava tinha assinado um contrato com a Imigração e Alfândega dos EUA (ICE). Desde o compromisso da Google de nunca prosseguir com aplicações de IA que possam causar danos, aos “princípios de IA” da Microsoft, ou através da defesa da IBM justiça e transparência em todas as questões algorítmicas, as big tech estão a promover uma agenda responsável da IA, e parece que as empresas grandes e pequenas estão seguindo o chumbo.

Este renovado interesse pela ética, apesar das dimensões complexas e muitas vezes abstratas do tema, tem sido em grande parte motivado por vários impulsos
tanto dos governos como dos cidadãos para regular o uso de algoritmos. Mas de acordo com Steve Mills, líder em machine learning e artificial inteligência no Boston Consulting Group (BCG), existem muitas maneiras que a IA responsável pode realmente jogar a favor das empresas. “Os últimos 20 anos de investigação mostraram-nos que as empresas que abraçam fins e valores corporativos melhoram a rentabilidade a longo prazo.” Mills diz à ZDNet.

“Os clientes querem estar associados a marcas que têm valores fortes, e isso não é diferente. É uma oportunidade real para construir uma relação de confiança com os clientes.” O desafio é considerável. Olhando ao longo dos últimos anos, parece que os princípios de IA cuidadosamente redigidos não pararam os algoritmos de trazer danos reputacionais a empresas de alto nível. O algoritmo publicitário do Facebook, por exemplo, tem sido repetidamente criticado para o seu alvo, depois de se ter descoberto que o sistema de IA mostrou desproporcionalmente anúncios sobre cartões de crédito e empréstimos a homens, enquanto as mulheres eram apresentado com anúncios de emprego e habitação.

Da mesma forma, a Apple e a Goldman Sachs foram recentemente atacadas depois de queixas de que as mulheres tinham um cartão de crédito apple card com limites mais baixos do que os dos homens, enquanto o algoritmo de uma empresa de saúde que visava descobrir quem mais beneficiaria de cuidados adicionais foi encontrado ter favorecido os pacientes brancos. Não são apenas os clientes que as empresas podem conquistar com fortes valores e práticas de IA.

Os últimos anos também têm visto uma crescente consciencialização entre aqueles que criam os algoritmos em primeiro lugar, com os ´developers´ de software a manifestarem preocupação por estarem a assumir o peso da responsabilidade para a tecnologia antiética. Se os programadores não estiverem totalmente convencidos de que os empregadores utilizarão as suas invenções de forma responsável, poderão demitir-se. Na pior das hipóteses, podem até fazer um documentário com ele.

Os programadores não querem que os seus algoritmos sejam utilizados de forma prejudicial, e os melhores talentos serão atraídos para os empregadores que criaram
salvaguardas adequadas para garantir que os seus sistemas de IA permaneçam éticos. “Os trabalhadores tecnológicos estão muito preocupados com as implicações éticas
do trabalho que estão a fazer”, diz Mills. “Focar-se nessa questão será muito importante se quiser, como empresa, atrair e reter o talento digital que é tão crítico agora.

De um “bom de ter”, portanto, a ética tecnológica pode tornar-se uma “vantagem competitiva”; e a julgar pela recente multiplicação de ética em charters, a maioria das empresas obtém o conceito. Infelizmente, a elaboração de comunicados de imprensa e e-mails em toda a empresa não vai adiantar, explica Mills. Colmatar o fosso entre a teoria e a prática é mais fácil de dizer do que fazer. A investigação de Capgemini chamou o progresso das organizações no campo da ética de “avassalador”, marcado por uma tomada de medidas irregular. Apenas metade das organizações, por exemplo, nomearam um líder responsável pela ética dos sistemas de IA.

Mills tira uma conclusão semelhante. “Vimos que há muitos princípios em vigor, mas muito poucas mudanças acontecem na forma como os sistemas de IA são realmente construídos”, diz. “Há uma crescente consciencialização, mas as empresas não sabem como agir. Parece um grande e espinhoso problema, e eles sabem que precisam fazer algo, mas não têm certeza o quê. Felizmente há exemplos de bom comportamento. Mills recomenda seguir as práticas da Salesforce, que podem ser rastreadas até 2018, quando a empresa criou um serviço de IA para CRM chamado Einstein. Antes do final do ano, a empresa tinha definido uma série de princípios de IA, criou um escritório de uso ético e humano, e nomeou um oficial ético e humano chefe, e um arquiteto de artificial ético em prática de inteligência.

Na verdade, um dos primeiros passos a dar para qualquer CIO que aspire à ética, é contratar e capacitar um colega líder que conduzirá a IA responsável em toda a organização, e ser dado um assento na mesa ao lado dos líderes mais seniores da empresa. “Um campeão interno como um chefe e oficial de ética da IA deve ser nomeado para ser nomeado para chefiar qualquer iniciativa responsável da IA”, Detlef Nauck, o responsável pela IA e pela investigação em ciências dos dados na BT Global, conta a ZDNet. Nauck acrescenta que o papel deve exigir que um funcionário especificamente treinado em ética de IA, para trabalhar em todo o negócio e em todo o ciclo de vida do produto, antecipando as consequências não intencionais dos sistemas de IA e discutindo estas questões com a liderança.

É também fundamental garantir que os colaboradores compreendam os valores da organização, por exemplo, comunicando princípios éticos através de sessões de formação obrigatórias. “As sessões devem formar os colaboradores sobre como manter os compromissos éticos da IA da organização, bem como colocar as questões críticas necessárias para identificar potenciais questões éticas, tais como se uma aplicação de IA pode levar à exclusão de grupos de pessoas ou causar danos sociais ou ambientais”, diz Nauck.

A formação deve vir com ferramentas práticas para testar novos produtos ao longo do seu ciclo de vida. A Salesforce, por exemplo, criou uma “consequência da digitalização ” ferramenta que pede aos participantes para imaginar os resultados indesejados que uma nova funcionalidade em que estão a trabalhar poderia ter, e como mitigá- los. A empresa também tem um conselho dedicado que mede, desde o protótipo até à produção, se as equipas estão a remover o preconceito nos dados de formação.

De acordo com a empresa, foi assim que a equipa de marketing de Einstein foi capaz de remover com sucesso o alvo de anúncios tendenciosos. Mills menciona práticas semelhantes no Boston Consulting Group. A empresa criou uma ferramenta simples baseada na web, que vem na forma de um questionário – Sim ou Não – que as equipas podem usar para qualquer projeto em que estejam a trabalhar. Adaptada dos princípios éticos do BCS, a ferramenta pode ajudar a evitar riscos numa base contínua.

“As equipas podem usar o questionário desde a primeira fase do projeto e até ao início da implantação”, diz Mills. “À medida que vão avançando, o número de perguntas aumenta, e torna-se mais uma conversa com a equipa. Dá-lhes a oportunidade de recuar e pensar nas implicações do seu trabalho, e os riscos potenciais. A ética é, em última análise, sobre infundir um estado de espírito entre as equipas, e não requer tecnologia sofisticada ou ferramentas caras. Ao mesmo tempo, o conceito de IA responsável não vai a lado nenhum; na verdade, só é provável que se torne mais uma prioridade. Dar a devida atenção ao tema agora, pode acabar por ser fundamental para se manter à frente da competição.

Fonte: ZDNet

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui