Desde o auge da inteligência artificial em 2022, temos assistido ao surgimento de inúmeras ferramentas que facilitam o nosso trabalho de maneiras inovadoras. Desde geradores de imagens a bots de conversação, passando por editores de vídeo com IA, temos hoje uma vasta gama de ferramentas à nossa disposição.
No entanto, muitos dos modelos de linguagem que alimentam estas ferramentas foram treinados com uma multiplicidade de imagens e obras criadas por artistas, protegidas por direitos de autor. Isto significa que a inteligência artificial tem beneficiado do trabalho dos artistas sem lhes dar o devido crédito, gerando um debate ético sobre o uso indevido da IA. Mas a batalha pode ainda não estar perdida.
Investigadores da Universidade de Chicago desenvolveram um software open-source capaz de “envenenar” as imagens para que deixem de ser material para o treino de uma IA. A ferramenta, denominada ‘Nightshade’, altera os pixéis das imagens de forma que seja impercetível para o olho humano, impedindo simultaneamente que a imagem seja usada para treinar um modelo de linguagem.
Nightshade será uma opção incluída na ferramenta Glaze, que já impedia que as imagens fossem treinadas através de um algoritmo que modificava pequenos detalhes das imagens impercetíveis. A diferença é que Nightshade também confunde a IA, fazendo com que os algoritmos de machine learning aprendam os nomes incorretos dos elementos e cenários que aparecem nas imagens.
Por exemplo, se utilizar Nightshade numa imagem de um cão, a ferramenta fará com que o modelo de linguagem acredite que a imagem é de um gato. Os investigadores testaram esta hipótese e, após 50 imagens modificadas com Nightshade, a IA começou a mostrar imagens de cães com pernas estranhas e aparições inquietantes. Após 100 imagens modificadas, a IA começou a gerar imagens perfeitas de gatos quando lhe era pedido para gerar um cão. Após 300 exemplos modificados, qualquer pedido para gerar um gato resultava em imagens de cães.
Este procedimento pode ser muito difícil de evitar pelos modelos de linguagem, já que as imagens foram modificadas antes do upload, sendo impercetíveis para o olho humano e complexas de detectar até mesmo para um software de extração de dados. Qualquer imagem modificada precisaria ser detectada e eliminada para não interferir no treino dos modelos de linguagem. Se um modelo tiver sido treinado com muitas imagens “envenenadas”, provavelmente teria que ser treinado de novo.
Os investigadores estão cientes de que esta ferramenta também pode ser usada indevidamente, mas esperam que “a balança se equilibre” a favor dos artistas, através da criação de uma ferramenta contra “o desrespeito pelos direitos de autor e a propriedade intelectual dos artistas”, de acordo com o artigo do MIT Tech Review.
Ao “envenenar” as imagens, impede que sejam usadas para treinar modelos de linguagem sem o devido crédito aos criadores. Embora possa ser usada indevidamente, a esperança é que contribua para um maior respeito pelos direitos de autor e pela propriedade intelectual no mundo da IA.
Fonte: venturebeat