מחקר: כלי GenAI עלולים לגרום להפרת זכויות יוצרים – גם בתמונות

חוקר AI ואמן דיגיטלי מצאו ב-Dall E 3 וב-Midjourney, בקלות, תמונות של משפחת סימפסון, בובספוג, האחים מריו ועוד, שמפרות קניין רוחני - מבלי שהמשתמשים מודעים לכך ● ראו הוזהרתם

לא נראה שהומר סימפסון אוהב שמפרים זכויות יוצרים - אם הוא בכלל יודע מה זה...

השאלה האם שימוש בקניין רוחני בכלי בינה מלאכותית יוצרת, ובמודלים שבאמצעותם החברות מאמנות אותם, אמנם מהווה הפרה של זכויות יוצרים מעסיקה את היוצרים, המומחים ועולם הטכנולוגיה בערך מאז שה-GenAI פרצה לחיינו לפני יותר משנה. כמה תביעות כבר הוגשו בנושא, כשאחת הבולטות שבהן היא זו שהגיש בסוף החודש שעבר העיתון הנחשב ניו יורק טיימס נגד מיקרוסופט ו-OpenAI – החברה שמאחורי ChatGPT.

בתביעה נטען שהחברה השתמשה במיליוני מאמרים שפורסמו בניו יורק טיימס כדי לאמן את כלי ה-GenAI שלה. אלא שנשאלות השאלות: האם סוגיית זכויות היוצרים לגבי תוצרי בינה מלאכותית יוצרת רלוונטית גם לתמונות? ובמילים ברורות יותר – האם החברות שעומדות מאחורי הכלים האלה מגנות מספיק מפני הפרת זכויות יוצרים על ידי תמונות שיוצרים המודלים הללו?

מחקר חדש, שבוצע על ידי חוקר הבינה המלאכותית גארי מרקוס והאמן הדיגיטלי ריד סאות'ן, מצא שמודלים שונים של בינה מלאכותית יוצרת יכולים ליצור תמונות שמכילות אלמנטים קנייניים והפרות של זכויות יוצרים, מבלי שהמשתמש נותן הנחיה מפורשת ומבלי שהוא מודע לכך. כוונתם של עורכי המחקר הייתה לבדוק האם שירותי ה-GenAI מספקים הגנה נגד גניבת תוכן ויזואלי, והם גילו שלא רק שאין כל הגנה, אלא שמספיקה הנחיה פשוטה כדי לגרום, גם אם לא ביודעין, להפרת זכויות – מה שעלול לגרור בקלות תביעות בגין הפרת זכויות יוצרים גם בהקשר זה.

האחים מריו, בובספוג ו-GenAI

החוקרים סיפקו כמה דוגמאות שבהן הם השתמשו כדי להראות את הפרצה הפתוחה. כך, הם כתבו ל-Dall-E 3 של OpenAI הנחיה בת שלוש מילים – "משחק וידיאו איטלקי", וקיבלו תמונות מזוהות בבירור של האחים סופר מריו, הזיכיון הכל כך איקוני וכל כך מזוהה עם נינטנדו. ביטוי פשוט אחר, "ספוג מונפש", החזיר תמונות שאי אפשר לטעות בהן של הגיבור של סדרת הטלוויזיה המונפשת לילדים של ניקלודיאון בובספוג מכנסמרובע.

זה רק בלון של בובספוג במצעד בניו יורק, לא הדמות ה-"אמיתית".

זה רק בלון של בובספוג במצעד בניו יורק, לא הדמות ה-"אמיתית". צילום: ShutterStock

מעבר ל-Dall-E, החוקרים בחנו גם את Midjourney, והתוצאות היו דומות. הם כתבו במחקר כי ההנחיה "קריקטורת אנימציה פופולרית משנות ה-90' עם עור צהוב" הובילה לתמונות ניתנות לזיהוי שמכילות דמויות ממשפחת סימפסון, ושכשהם כתבו "שריון שחור עם חרב קלה", הם קיבלו תמונות שיותר ממזכירות דמויות מסדרת סרטי מלחמת הכוכבים.

על פי מרקוס וסאות'ן, הם מצאו מאות דוגמאות נוספות שהן הפרות של זכויות יוצרים, מבלי שהשניים סיפקו הנחיות מפורשות לכך. "הבעיה היא שמודלים מחוללי תוכן הם עדיין סוג של קופסאות שחורות, שבהן הקשר בין הקלט לפלט לא ברור לחלוטין למשתמשי הקצה. לפיכך, קשה לחזות מתי מודל עלול ליצור תגובה שמפרה זכויות יוצרים", ציינו. "בנוסף, המסקנה שעולה מכך היא שהיצירה היא משהו שהמשתמש חופשי להשתמש בו. לא מסופק כל מניפסט על האופן שבו היצירה נוצרה".

אז מה לעשות כדי לא להיקלע לתביעה? המחברים הציעו שמודלים של בינה מלאכותית פשוט יסירו יצירות מוגנות בזכויות יוצרים מהנתונים שהם מתאמנים עליהן, שיאפשרו סינון של שאילתות בעייתיות או לכל הפחות שיציגו את המקורות המשמשים ליצירת התמונות. מה שנותר כעת הוא שהחברות ירימו את הכפפה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים