כלי חדש מסייע לאמנים למנוע אימג'י AI שנוצרו בהשראתם

Nightshade מגן על עבודת האמנים מפני שירותים המחוללים תמונות באמצעות AI, ומתעתע בכלי הבינה המלאכותית היוצרת - כמו Midjourney ו-DALL·E - כך שלא יאמנו את המודלים שלהם על היצירות של האמן

יודע לבלבל את ה-GenAI על ידי "הזרקת רעל" ליצירות האמן. Nightshade.

כלי חדש בשם Nightshade יכול לעזור לאמנים, גרפיקאים ושאר יוצרי תכנים ויזואלי קריאייטיביים להגן על עבודתם מפני מחוללי תמונות מבוססי בינה מלאכותית. למעשה מה שהכלי יודע לעשות הוא להוסיף פיקסלים בלתי ניתנים לתמונות, ואלו "משחיתים" את נתוני האימון של ה-AI. הכלי החדש פותח על ידי צוות מאוניברסיטת שיקגו, כמענה לחששות של יוצרים בתחום האמנות הוויזואלית לגבי הפרת זכויות יוצרים, וכמובן היעדר תשלום על שימוש ביצירותיהם – מעשים שמאחוריהם עומדות, לכאורה, חברות גדולות העוסקות בתחום, כמו OpenAI, גוגל או מטא.

אם לדייק, Nightshade, כך הוסבר במאמר אודות הפיתוח שהתפרסם ב-MIT Technology Review, מציע ליוצרים דרך להילחם נגד חברות הבינה המלאכותית שמשתמשות ללא רשות מפורשת בעבודותיהם כדי לאמן את דגמי ה-AI שלהן. השימוש בכלי הוא כזה שבעצם "מרעיל" את נתוני האימון הללו, כך שמחוללי האימג'ים דוגמת DALL·E, Midjourney או Stable Diffusion, ייתקלו למעשה ביצירות שיהיו חסרות תועלת עבורם, בשל השיבוש שהן יעברו בידי הכלי. MIT Technology Review ציין כי הדיווח מבוסס על תצוגה מקדימה בלעדית של המחקר, אשר הוא נחשף אליה כשהוגשה לביקורת עמיתים בכנס אבטחת המחשבים Usenix.


הפתרון – רק באמנות דיגיטלית

כדאי להבהיר כי Nightshade לא יכול לסייע לאמנים שיוצרים עבודות פיזיות, ויכול לטפל ביצירות "אמיתיות" שאינן ממוחשבות רק אם יהפכו לאימג'ים סרוקים. הפיצ'ר עובד על שינוי האופן שבו כלי למידת מכונה מפרשים את הנתונים שהם "מגרדים" ממקורות דיגיטליים מקוונים, שעל כמותם מתאמנים מודלי ה-AI. ה"רעל" שהכלי החדש יזרים לאימג' גורם ל-AI לראות ולשחזר משהו שונה לחלוטין מהתמונה המקורית. לדוגמה, תמונה של מכונית עשויה להתפרש כתמונת פרה על ידי מודל AI שנחשף לנתונים ה"מורעלים".

כבר כעת יכולים אמנים להגן על היצירה שלהם על ידי העלאה שלה ל-Glaze – כלי נלווה ל-Nightshade, ש"מפזר" את ה"רעל" שמייצר Nightshade על התמונה. הרעל הזה בלתי נראה לעין האנושית, אך בהחלט כן נלכד בידי מודלי הבינה המלאכותית ומטעה אותם ואת מנגנון הפנמת האימג' שלהם.

הכלים Nightshade ו-Glaze חופשיים לשימוש הציבור ואמורים להישאר כאלו, כש-Nightshade הוא למעשה כלי בקוד פתוח. החוקרים הסבירו כי הם מאפשרים שימוש חופשי בכלים, משום שככל שיותר אנשים ישתמשו בהם כדי "להרעיל" את התוכן שיצרו, כך יקשה יותר על חברות הבינה המלאכותית להמשיך ולהשתמש בתכנים ויזואליים המוגנים בזכויות יוצרים.

הצוות שמאחורי Nightshade מאמין שהכלי המסוים הזה יכול לעזור "לשטח את שדה המשחקים" ולאזן בין זכות היוצרים והצורך בהגנה על יצירותיהם, לבין האינטרסים של חברות ה-AI, ואולי גם של ציבור המשתמשים ביכולות ה-GenAI החדשות. בעזרת יצירת מצב שיקשה על החברות הללו להרוויח מיצירה המוגנת בזכויות יוצרים, Nightshade יכול לעודד את ארגוני הטק בתחום לפצות כראוי את מי שעל בסיס יצירתם אומנה ה-AI היוצרת, כמו גם להשפיע עליהם כך שלפחות יתנו קרדיט לאמנים המקוריים שמיצירותיהם "הושפעו" הכלים הפופולריים אשר פיתחו.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים