L’art de l’IA et la lutte pour les droits des artistes
Empoisonner l’IA : Nightshade protège le travail des artistes
Alors que les générateurs d’images basés sur l’IA deviennent de plus en plus puissants, les artistes s’inquiètent que leur travail soit utilisé sans autorisation pour entraîner ces modèles. Désormais, les chercheurs ont développé un outil appelé Nightshade qui permet aux artistes d’intégrer un « poison » invisible dans leurs images, induisant en erreur les modèles d’IA et nuisant à leur capacité à étiqueter correctement les images.
Comment Nightshade protège le travail des artistes
Nightshade modifie les pixels d’une image d’une manière que les humains ne peuvent pas détecter. Cependant, les ordinateurs remarquent ces changements, qui sont conçus pour embrouiller les modèles d’IA. Lorsqu’un modèle d’IA est entraîné sur ces images empoisonnées, sa capacité à reconnaître et étiqueter les images se détériore. Par exemple, il pourrait commencer à étiqueter les voitures comme des vaches ou les dessins animés comme de l’impressionnisme.
L’impact sur les générateurs d’images basés sur l’IA
Étant donné que les modèles d’IA sont entraînés sur de vastes ensembles de données, identifier les images empoisonnées est une tâche complexe et chronophage pour les entreprises technologiques. Même quelques échantillons trompeurs peuvent causer des dommages. Les chercheurs ont découvert qu’alimenter Stable Diffusion avec seulement 50 images empoisonnées amenait le modèle à commencer à générer des images déformées de chiens. Après 100 échantillons, le modèle produisait des images qui ressemblaient plus à des chats qu’à des chiens.
Un outil pour les artistes
Nightshade est un outil important pour les artistes qui font face à des entreprises technologiques qui utilisent leur travail pour entraîner des modèles d’IA sans autorisation. Il offre aux artistes un moyen de protéger leur travail et de faire valoir leurs droits.
Préoccupations éthiques
Bien que Nightshade puisse protéger le travail des artistes des modèles plus récents, il ne peut pas protéger rétroactivement l’art des anciens modèles. Les chercheurs reconnaissent également que la technique de Nightshade pourrait être utilisée à mauvais escient à des fins malveillantes, comme des attaques ciblées contre des modèles d’IA. Cependant, ils estiment que de telles attaques seraient difficiles à mener, car elles nécessiteraient des milliers d’échantillons empoisonnés pour endommager des modèles plus volumineux.
L’avenir du droit d’auteur
Nightshade souligne la nécessité de pratiques éthiques en matière d’IA et d’un réexamen du droit d’auteur à l’ère de la génération d’images par l’IA. Les artistes soutiennent qu’ils devraient avoir le contrôle sur la manière dont leur travail est utilisé pour entraîner des modèles d’IA. Certains experts estiment qu’une législation est nécessaire pour protéger les droits des artistes et garantir une rémunération équitable pour leur travail.
Un regain de moral pour les artistes
Malgré les défis actuels, Nightshade a redonné espoir aux artistes et leur a donné un sentiment d’autonomisation. Des artistes comme Autumn Beverly, qui a cessé de publier son travail en ligne après avoir découvert qu’il avait été récupéré sans son consentement, ont trouvé du réconfort dans des outils comme Nightshade qui leur permettent de partager à nouveau leur travail.
Conclusion
Nightshade est une étape importante dans la lutte pour défendre les droits des artistes face aux générateurs d’images basés sur l’IA. Il met à la disposition des artistes un outil pour protéger leur travail et soulève des questions importantes sur l’utilisation éthique de l’IA et l’avenir du droit d’auteur.