Inteligência Artificial: O Desafio Ético e de Segurança nas Ferramentas de IA da Microsoft

A evolução da inteligência artificial (IA) tem sido um dos tópicos mais fascinantes e ao mesmo tempo controversos do mundo tecnológico.

As ferramentas de IA, como o Copilot Designer da Microsoft, anteriormente conhecido como Bing Image Creator, prometem revolucionar a forma como interagimos com as máquinas, mas também levantam questões importantes sobre segurança e ética. Shane Jones, um engenheiro de IA com seis anos de experiência na Microsoft, tem sido uma voz crítica dentro da empresa, alertando para os riscos potenciais associados a estas tecnologias.

Jones, apesar de não estar diretamente envolvido no desenvolvimento das soluções de IA da Microsoft, dedica-se a analisar os riscos que estas podem representar. A sua preocupação centra-se na geração de conteúdo inapropriado por parte destas ferramentas, incluindo imagens perturbadoras de “demónios e monstros”, bem como conteúdo relacionado com direitos sobre o aborto, adolescentes armados, imagens sexualizadas de mulheres em contextos violentos e o consumo de substâncias ilícitas por menores. Estes problemas não são exclusivos da Microsoft, a Google também enfrenta desafios semelhantes com a sua IA, que tem gerado resultados problemáticos.

O alerta de Jones é claro: “Este modelo não é seguro”. Após testar a ferramenta em dezembro, ele tentou comunicar as suas preocupações internamente, mas encontrou resistência. A Microsoft, reconhecendo a preocupação de Jones, não estava disposta a desativar o Copilot Designer, uma ferramenta chave na sua estratégia para competir no mercado de IA. Mesmo após levar suas preocupações para a OpenAI, a organização por trás do modelo DALL-E 3, que também alimenta o Copilot Designer, não houve resposta aos seus avisos.

A situação levou Jones a tomar medidas mais drásticas. Ele publicou um artigo no LinkedIn pedindo ao conselho de administração da OpenAI que desativasse o DALL-E 3, mas foi instruído pelo departamento jurídico da Microsoft a remover a postagem. Não se dando por vencido, Jones enviou uma carta aos senadores dos EUA e reuniu-se com funcionários de um comité do Senado para discutir o assunto. Mais recentemente, Jones dirigiu-se à FTC (Federal Trade Commission), a entidade reguladora dos EUA, e pediu uma reclassificação da app Copilot Designer para Android, sugerindo que seja claramente direcionada a um público adulto.

A resposta da Microsoft a estas ações foi sublinhar a existência de “sólidos canais internos” para investigar e responder a preocupações, e reafirmar o compromisso em melhorar a segurança das suas tecnologias. No entanto, a sensação que transparece é que as medidas tomadas podem não estar à altura dos riscos identificados.

A resposta da Microsoft, embora reconheça os problemas, parece insuficiente. É crucial que as empresas de tecnologia não apenas reconheçam os riscos associados às suas inovações, mas também tomem medidas proativas para mitigá-los. A regulação pode desempenhar um papel importante, mas a verdadeira mudança deve começar dentro das próprias empresas, com uma cultura que valorize a ética tanto quanto a inovação.

Fonte: Cnbc

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui