quarta-feira, 27 de dezembro de 2023

Vingança e veneno: artistas contra IA generativa



Quando o Dall·E foi introduzido, e logo depois, outros algoritmos generativos de processamento de imagens, como Midjourney ou Stable Diffusion, seus problemas rapidamente se tornaram aparentes : as empresas que os criaram acumularam enormes coleções de imagens marcadas com descrições e as usaram. para treiná-los.

Onde eles conseguiram essas enormes coleções de imagens? Fundamentalmente, raspar páginas da web que os continham, especialmente repositórios de imagens. A reclamação do repositório Getty Images contra o Stable Diffusion reflete claramente o problema: a coleta de suas imagens era tão evidente que em muitos casos as imagens geradas continham versões distorcidas de sua marca d'água, porque o algoritmo a interpretava como outra parte da imagem.

O problema jurídico era óbvio: passamos anos dizendo que se algo for público na web pode estar sujeito a raspagem . Existem precedentes legais de todos os tipos que afirmam o direito de alguém acessar um site aberto ao público e utilizar todo o seu conteúdo para os fins que achar conveniente. Pela sua complexidade, o caso em questão pode levar anos e acabar no Supremo Tribunal Federal e, enquanto isso, os artistas cujas imagens foram utilizadas para treinar algoritmos veem como suas criações podem ser facilmente imitadas, ou como alguém pode simular seu estilo para faça novas imagens.

Diante da dificuldade da ação judicial, alguns artistas iniciaram outro tipo de vingança : criar imagens tratadas com software que introduz nelas alterações invisíveis para confundir os algoritmos , da mesma forma que é utilizada, por exemplo, para "anonimizar" fotografias e evitar seu uso por algoritmos de reconhecimento facial

Batizado de Nightshade em homenagem à Atropa belladonna , planta que causa alucinações, o algoritmo permite a publicação de fotografias alteradas que geram no algoritmo descrições diferentes do seu conteúdo real, o que faz com que o algoritmo fique confuso em seus resultados e ofereça imagens que não o fazem. existem. Eles são o que o usuário solicitou.

O resultado equivale a envenenar os repositórios com imagens que continuam a cumprir a sua função – o utilizador normal pode vê-las e escolhê-las para ilustrar o que quiser, respeitando as condições estabelecidas pelos artistas – mas que, se ingeridas por um algoritmo, dão dar origem a "alucinações" que distorcem o seu funcionamento. Quanto mais “envenenadas” as imagens, mais imprevisível se torna o algoritmo, obrigando as empresas a estabelecer mecanismos de monitorização dos conteúdos que utilizam para formação, aumentando consideravelmente os seus custos.

Na prática, um alerta para quem cria este tipo de ferramentas, que está por trás de muitos dos problemas que notamos na sua utilização: se você alimentar o seu algoritmo com lixo, ele vai gerar lixo. Em muitos casos, estamos a falar de uma indústria que está a tentar ir demasiado rápido, que precisa de oferecer resultados muito rapidamente para se justificar perante os seus investidores, e isso significa que estes acabam por utilizar informações inadequadas que nunca deveriam servir de base a qualquer treinamento, o que torna seus algoritmos potencialmente menos confiáveis. Basicamente, “entra lixo, sai lixo ” . Nessas coisas, como no ensino de uma criança, a pressa não é o melhor conselheiro.

Na prática, nada pode impedir um artista de tratar suas criações como bem entender, da mesma forma que até agora se acreditava que nada poderia impedir uma empresa de raspar todo o conteúdo de um repositório e utilizá-lo para treinar um algoritmo. Mas sobre estas questões há poucas verdades absolutas, e quando surge um novo uso, é comum que aqueles conceitos que assim pareciam sejam revistos, como comprovam as intenções de alguns artistas – e sobretudo, daqueles que gerem os seus direitos de autor –. a serem compensados ​​​​quando suas imagens forem usadas para treino de algoritmos.

Veremos como isto termina.

Sem comentários: