El arte de la IA y la lucha por los derechos de los artistas
Envenenando la IA: Nightshade protege el trabajo de los artistas
A medida que los generadores de imágenes de IA se vuelven más potentes, los artistas se preocupan de que su trabajo se utilice sin permiso para entrenar estos modelos. Ahora, los investigadores han desarrollado una herramienta llamada Nightshade que permite a los artistas incrustar un «veneno» invisible en sus imágenes, engañando a los modelos de IA y dañando su capacidad para etiquetar imágenes correctamente.
Cómo protege Nightshade el trabajo de los artistas
Nightshade altera los píxeles de una imagen de una manera que los humanos no pueden detectar. Sin embargo, las computadoras notan estos cambios, que están diseñados para confundir a los modelos de IA. Cuando un modelo de IA se entrena con estas imágenes envenenadas, su capacidad para reconocer y etiquetar imágenes se rompe. Por ejemplo, podría comenzar a etiquetar automóviles como vacas o arte de dibujos animados como impresionismo.
El impacto en los generadores de imágenes de IA
Debido a que los modelos de IA se entrenan con conjuntos de datos vastos, identificar imágenes envenenadas es una tarea compleja y que requiere mucho tiempo para las empresas tecnológicas. Incluso unas pocas muestras engañosas pueden causar daños. Los investigadores encontraron que alimentar solo 50 imágenes envenenadas en Stable Diffusion hizo que el modelo comenzara a generar imágenes distorsionadas de perros. Después de 100 muestras, el modelo produjo imágenes que eran más gatos que perros.
Una herramienta para artistas
Nightshade es una herramienta importante para los artistas que se enfrentan a empresas tecnológicas que utilizan su trabajo para entrenar modelos de IA sin permiso. Les brinda a los artistas una forma de proteger su trabajo y hacer valer sus derechos.
Preocupaciones éticas
Si bien Nightshade puede proteger el trabajo de los artistas de los modelos más nuevos, no puede proteger el arte de los más antiguos de forma retroactiva. Los investigadores también reconocen que la técnica de Nightshade podría usarse indebidamente para propósitos maliciosos, como ataques dirigidos a modelos de IA. Sin embargo, creen que tales ataques serían difíciles de llevar a cabo, ya que requerirían miles de muestras envenenadas para infligir daño a modelos más grandes.
El futuro de la ley de derechos de autor
Nightshade destaca la necesidad de prácticas éticas de IA y un nuevo examen de la ley de derechos de autor en la era de la generación de imágenes de IA. Los artistas argumentan que deberían tener control sobre cómo se utiliza su trabajo para entrenar modelos de IA. Algunos expertos creen que es necesaria una legislación para proteger los derechos de los artistas y garantizar una compensación justa por su trabajo.
Un refuerzo moral para los artistas
A pesar de los desafíos en curso, Nightshade les ha dado a los artistas esperanza y una sensación de empoderamiento. Artistas como Autumn Beverly, que dejó de publicar su trabajo en línea después de descubrir que había sido raspado sin su consentimiento, han encontrado consuelo en herramientas como Nightshade que les permiten compartir su trabajo nuevamente.
Conclusión
Nightshade es un paso significativo en la lucha por defender los derechos de los artistas frente a los generadores de imágenes de IA. Empodera a los artistas con una herramienta para proteger su trabajo y plantea importantes cuestiones sobre el uso ético de la IA y el futuro de la ley de derechos de autor.