Inteligência Artificial surpreende e preocupa: Imagens criadas são realistas

Estão a vir a público imagens realistas criadas por inteligência artificial que, apesar de divertidas e inocentes, estão a preocupar os especialistas.

Os sistemas DALL-E 2, da OpenAI, e o Imagen, do Google Research, estão a produzir imagens detalhadas e realistas com base em indicações que podem parecer tão tontas como “um sapo de morango” ou “um cão numa casa de sushi”. Por serem divertidas, as imagens estão a ter uma repercussão muito grande nas redes sociais e estão a ser partilhadas, inclusivamente, por personalidades com influência na comunidade de tecnologia.

Arte ou a indústria da publicidade podem vir a beneficiar muito com a novidade (O MidJourney, por exemplo, já ajudou a criar capas de revistas), mas os especialistas estão preocupados que este tipo de ferramentas se possa tornar numa “arma perigosa” se usada indevidamente ou com base em preconceitos culturais que podem perpetuar estereótipos indesejados. Para já nenhuma destas ferramentas está disponível para o público em geral.

Este tipo de ferramentas também têm potencial para serem usadas para espalhar desinformação. “Até que esses danos possam ser evitados, não estamos a falar de sistemas que possam ser usados abertamente, no mundo real”, disse Arthur Holland Michel, membro sénior do Carnegie Council for Ethics in International Affairs que pesquisa a IA e tecnologias de vigilância.

Não há imagens de aparência realista de pessoas nas divertidas amostras que aparecem na página do projeto on-line do Imagen nem do DALL-E 2, e a OpenAI refere mesmo que, na sua página, usou “técnicas avançadas para evitar gerações fotorrealistas de rostos de indivíduos reais, incluindo os de figuras públicas”.

Os sistemas de reconhecimento facial, em particular, têm estado cada vez mais sob apertado escrutínio por preocupações relativas à sua precisão e preconceito racial. A OpenAI e o Google Research reconheceram muitos dos problemas e riscos relacionados aos seus sistemas de IA em documentação e pesquisa, ambos dizendo que os sistemas são propensos a preconceitos de género e raça e a retratar estereótipos culturais ocidentais.

Holland Michel também está preocupado com o facto de que não há salvaguarda que possa impedir que esses sistemas sejam usados de forma maliciosa, observando que os deepfakes foram inicialmente aproveitados para criar pornografia falsa. O DALL-E 2 também usa filtros para evitar que se gere uma imagem se um upload violar as políticas do OpenAI, e os utilizadores podem sinalizar resultados problemáticos.

Crenças e manifestações culturais diferentes podem levar a mal entendidos e a que várias pessoas possam ficar muito ofendidas, mas “a IA não entende nada disso”, disse o investigador.

Fonte: CNN

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui