يمكن للفنانين استخدام هذه الأداة لحماية أعمالهم من تقليد الذكاء الاصطناعي.
ومع ذلك، ستلاحظ أجهزةُ الكمبيوتر هذه التغييرات، والتي تمّ تصميمُها بعناية لإضعاف قدرة نماذج الذكاء الاصطناعي على تسميةِ صورها. إذا تمّ تدريبُ نموذج الذكاء الاصطناعي على هذه الأنواع من الصور، ستبدأ قدراته في الانهيار. سيتعلم، على سبيل المثال، أن السيارات هي أبقار، أو أن فنّ الكارتون هو رسوم من النمط الانطباعي.
كتب بينج إدواردز من Ars Technica يقول: "بهذه الطريقة، بالنسبة إلى فحص بشري أو آلي بسيط، تبدو الصورة موافقةً للنصّ "، ثم يضيف: "ولكن في الفضاء الكامن والخفيّ للنموذج، تتمتع الصورة بخصائص كلٍّ من المفهوم الأصلي ومفهوم السمّ، مما يؤدي إلى ضلال النموذج عند تدريبه على مثل هذه البيانات والمعطيات".
ونظرًا لأن النماذج يتم تدريبها على مجموعات بيانات ضخمة، فإن تحديد الصور السامة يُعَدّ مهمةً معقدة وتستغرق وقتًا طويلاً بالنسبة لشركات التكنولوجيا، وحتى مجردُ عددٍ قليل من العيّنات المُضلِّلة يمكن أن يُحدث ضررًا. عندما قام الباحثون بإدخال 50 صورة مسمومة، والتي وصفت صورَ الكلاب بأنها قطط، في Stable Diffusion، بدأ النموذج في توليد صورٍ مُشوّهة للكلاب. وبعد 100 عينة، بدأ النموذج في إنتاج صور أقرب إلى القطط منها إلى الكلاب. عند إدخال 300 عيّنة، لم يتبقَّ أيّ سِماتٍ شبيهة بالكلاب تقريبًا.
في السابق، أصدر الفريق أداة مشابهة تسمى Glaze، والتي تُخفي أسلوبَ الفنان عن أدوات الذكاء الاصطناعي التي تحاول تحليله. سوف يتم دمج Nightshade في النهاية ضمن Glaze.
أخيراً، يأمل الباحثون أن يساعد Nightshade في منح الفنانين مزيدًا من القوة أثناء مواجهتهم للذكاء الاصطناعي، كما أخبر بين تجاو Ben Zhao، عالِم الكمبيوتر في جامعة شيكاغو الذي قاد فريق Nightshade، إيلين فيلي من Hyperallergic.
يقول تجاو: "أعتقد أن هناك الآن حافزاً ضئيلاً للغاية للشركات من أجل تغيير الطريقة التي كانت تعمل بها – والتي كانت تعني أن (كل شيء تحت الشمس هو ملكنا، وليس هناك ما يمكنك القيام به حيال ذلك)". ثم يضيف قائلاً: "أعتقد أننا ما نفعله هو مجردُ نوعٍ من منحهم المزيدَ من الدّفعِ نحو الجبهة الأخلاقية، وسنرى ما إذا كان ذلك سيحدث بالفعل".
في حين أن برمجيّةَ Nightshade يمكنها حمايةُ أعمال الفنانين التي تعود إلى النماذج الأحدث، إلا أنها لا يمكنها حمايةُ الأعمال الفنية من النماذج القديمة بأثر رجعي. يقول تشانغ لِـ ريان هيث من أكسيوس: "إن البرمجيّةَ تعمل في وقت التدريب وتزعزع استقرار النموذج إلى الأبد". ويُكمل قائلاً: "بالطبع، يمكن لمُدرِّبي النموذج العودة إلى نموذج قديم، لكن ذلك يجعل من الصعب عليهم بناء نماذج جديدة".
وكما أخبر تجاو مجلّةَ "المراجعة التقانيّة لمعهد ماساتشوستس للتكنولوجيا MIT Technology Review"، هناك احتمال أن تتمّ إساءةُ استخدام تقنية Nightshade لأغراض ضارة. ومع ذلك، يُكمل قائلاً: "إن الهجوم المستهدف سيكون أمرًا صعبًا، لأنه سيتطلب آلاف العينات المسمومة من أجل إلحاق الضرر بالنماذج الأكبر التي تم تدريبها على مليارات عينات البيانات".
تقول ماريان مازون، الباحثة في الفن الحديث والمعاصر في كلية تشارلستون، والتي تعمل أيضًا في مختبر الفن والذكاء الاصطناعي في جامعة روتجرز، إن برمجيّةَ Nightshade هي خطوة مهمة في الكفاح من أجل الدفاع عن الفنانين الذين يواجهون شركات التكنولوجيا.
تقول ماريان لـ Hyerallergic: "أصبح لدى الفنانين الآن شيءٌ يمكنهم القيام به، وهذا أمر مهم، فالشعور بالعجز ليس جيدًا". وفي الوقت نفسه، تخشى مازون أن برمجيّةَ Nightshae قد لا تكون حلاً طويل الأمد، بل تعتقد أنه يجب على المبدعين الاستمرارُ في متابعة الإجراءات التشريعية المتعلقة بتوليد الصور عبر الذكاء الاصطناعي، لأن الموارد المالية للشركات والتطور السريع لتكنولوجيا الذكاء الاصطناعي يمكن أن تجعل برمجيّاتٍ مثل Nightshade في نهاية المطاف أدواتٍ قد عفا عليها الزمن.
في هذه الأثناء، يُعَدّ وجود Nightshade بمثابة دفعة معنوية لبعض الفنانين، مثل أوتَمْن بيفرلي، التي أخبرت مجلّةَ "المراجعة التقانيّة لمعهد ماساتشوستس للتكنولوجيا MIT Technology Review" أنها توقفت عن نشر أعمالها الفنية على الإنترنت بعد أن اكتشفت أن أعمالها قد تمّ تحصيلُها وتقليدُها دون موافقتها. جعلتها أدواتٌ مثل Nightshade وGlaze تشعر بالارتياح عند مشاركة عملها على الإنترنت مرة أخرى، فتقول: "أنا ممتنة حقًا لأن لدينا أداةً يمكن أن تساعد في إعادة القوة إلى الفنانين في أعمالهم الخاصة".