يمكن للفنانين استخدام هذه الأداة لحماية أعمالهم من تقليد الذكاء الاصطناعي.

ADVERTISEMENT

صمّم باحثون أداة اسمها Nightshade تساعد الفنانين على منع برامج الذكاء الاصطناعي من استخدام أعمالهم دون إذن. تُخفي الأداة تغييرات داخل الصورة، فإذا درّب أحد النماذج على تلك الصورة يفهمها خطأ، فتضعف قدرته على التعرّف إلى الأشكال بشكل صحيح.

عند تطبيق Nightshade يتعلّم النموذج معلومات خاطئة؛ يظن الكلب قطة أو يخلط بين أساليب الرسم. أظهرت التجارب أن إدخال عشرات الصور «المسمومة» في نموذج Stable Diffusion يشوّه الصور التي ينتجها، ويزداد الخلط كلما كثرت الصور المعدَّلة.

أنشأ الفريق أداة Nightshade في جامعة شيكاغو بقيادة بن تجاو، ويقول إن الهدف دعم الفنانين أخلاقياً أمام الشركات التقنية. يخطط الفريق لاحقاً لدمج Nightshade مع أداة Glaze التي تُخفي الأسلوب الفني عن خوارزميات الذكاء الاصطناعي.

ADVERTISEMENT

قراءة مقترحة

تؤثر الأداة فقط أثناء تدريب النموذج، ولا تُغيّر النماذج التي انتهى تدريبها سابقاً. لذلك يلزم استخدامها قبل أن يبدأ التدريب، ولا تصلح لحماية الأعمال بعد أن تُسرق.

ترى الباحثة ماريان مازون أن Nightshade خطوة أساسية لحماية حقوق الفنانين، لكنها تؤكد أن التشريعات طويلة الأمد ضرورية مع تقدّم تقنيات الذكاء الاصطناعي وتوسّع الشركات التقنية.

تقول الفنانة أوتمن بيفرلي إنها عادت لنشر أعمالها على الإنترنت بعد استخدام Nightshade وGlaze، بعد أن كانت توقفت بسبب سرقة أعمالها، وتضيف: «أشعر بالامتنان لوجود أداة تُعيد إلى الفنانين جزءاً من السيطرة على إبداعاتهم».

    toTop