ג'מיני נחסם מליצור תמונות של אנשים – למה?

גוגל עצרה באחרונה את תכונת יצירת התמונות בפלטפורמת הבינה המלאכותית הג'נרטיבית שלה, משום שהכלי חולל תמונות לא מדויקות בתגובה להנחיות המשתמשים, בתוך שהוא מציג סוג של אפליה מתקנת, אך מעוותת בפני עצמה

יצר מגוון גזעי באימג'ים של האבות המייסדים של אמריקה. ג'מיני.

לא כולם יודעים זאת אבל ג'מיני (Gemini) – פלטפורמת הבינה המלאכותית הג'נרטיבית של גוגל – לא נשאר בגבולות היצירה הטקסטואלית ומזה כמה שבועות שהוא גם מחולל תמונות. אלא שיכולתו זו זכתה באחרונה לביקורת על כך שהוא מייצר אימג'ים לא מדויקים מבחינה היסטורית.

כך למשל, כשהתבקשה ה-GenAI של גוגל לצייר תמונה של לוחם גרמני משנת 1943, הכלי סיפק תמונה שבין השאר כללה אנשים שחורים במדי נאצים.

התופעה נבחנה ביתר שאת על ידי אנשי ימין שבדקו את ג'מיני וטוענים כי מצאו הטיה אינהרנטית נגד יצירת תמונות של אנשים לבנים.

חשבונות X ששמותיהם EndWokeness ו-WayOTWorld שיתפו בשבוע שעבר תוצאות של תמונות שחולל עבורם ג'מיני, והדגימו כיצד בתגובה להוראותיהם ל-AI לייצר עבורם תמונות של האבות המייסדים של ארה"ב, של אפיפיורים, וכן של פיזיקאים ואנשים שנולדו בסקוטלנד במאה ה-19 – הם קיבלו מערך של תמונות רב-תרבותיות ומגוונות מבחינה גזעית. לדוגמה, בין האבות המייסדים צוירו דמויות של ילידים אינדיאנים, או נשים – דבר שלא תואם למציאות ההיסטורית.

הדבר הכעיס את המשתמשים שספציפית לגבי המקרים שהודגמו, טענו כי מדובר בעדות להטיה לעבר עמדות פרוגרסיביות. לדברי המלינים, ג'מיני סיפק להם תמונות ובהן הופיעו "ויקינגים שחורים" או "אפיפיוריות" ממין נקבה. תוצרים אלו שלו יוחסו אמנם לדגש שקיבל הכלי להקפיד על גיוון, אך לפי המשתמשים מדובר על איזון מופרז ומופרך, שגם הוא מדגים קושי אמיתי של ג'מיני להבין מצבים ומורכבויות.

בין המשתמשים הכועסים היו כאלו שציינו כי בשל הניסיון המעוות, לדבריהם, לאזן את ג'מיני, הוא  פשוט מתנכר לעובדה שיש בכלל אנשים לבנים בעולם.

משתמש X אחר, שכינויו stratejake ושטען בפרופיל שלו שהוא עובד גוגל – עובדה שכלי המדיה לא הצליחה לאשש – פרסם דוגמה לתמונה לא מדויקת וצייץ יחד איתה את ההצהרה: "מעולם לא הייתי כל כך נבוך לעבוד בחברה". 

גוגל הגיבה בנטרול התכונה – למטרת טיפול בה

גוגל הקשיבה קשב רב לתלונות שצצו בשבוע שעבר, ובתגובה הודיעה כי היא מבטלת לחלוטין, לעת עתה, את יכולותיו של ג'מיני לייצר אימג'ים בהם יופיעו בני אדם.

פרבהאקאר רג'וואן, סגן נשיא בכיר בתחום הידע והמידע בגוגל.

פרבהאקאר רג'וואן, סגן נשיא בכיר בתחום הידע והמידע בגוגל. צילום: גוגל

בפוסט שהתפרסם בבלוג החברה הוצהר כבר בכותרת: "מחולל התמונות ג'מיני טעה. נשפר אותו". החתום על הפוסט, פרבהאקאר רג'וואן, סגן נשיא בכיר בתחום הידע והמידע בגוגל, כתב כי "לאחרונה קיבלנו את ההחלטה להשהות את האימג'ים של אנשים שמייצר ג'מיני, בזמן שאנחנו עובדים על שיפור הדיוק של התגובות שלו".

לדבריו בפוסט, "אפליקציית הצ'אט ג'מיני היא מוצר ספציפי הנפרד מחיפוש, מדגמי הבינה המלאכותית הבסיסיים שלנו וממוצרים אחרים שלנו. תכונת יצירת התמונה שלו נבנתה על גבי דגם AI בשם Imagen 2.

כשבנינו את התכונה הזו ב-ג'מיני, כיוונו אותה כדי להבטיח שהיא לא תיפול לכמה מהמלכודות שראינו בעבר עם טכנולוגיית יצירת תמונות – כמו יצירת תמונות אלימות או מיניות מפורשות, או תיאורים של אנשים אמיתיים. ומכיוון שהמשתמשים שלנו מגיעים מכל רחבי העולם, אנחנו רוצים שזה יעבוד טוב עבור כולם. אם תבקשו תמונה של שחקני כדורגל, או מישהו שמטייל עם כלב, אולי תרצו לקבל אנשים מגוונים. כנראה שלא תרצו לקבל רק תמונות של אנשים ממוצא אתני אחד בלבד (או כל מאפיין אחר)".

רג'וואן המשיך והסביר כי "עם זאת, אם אתה מבקש מג'מיני תמונות של סוג מסוים של אדם – כגון "מורה שחור בכיתה", או "וטרינר לבן עם כלב" – או אנשים בהקשרים תרבותיים או היסטוריים מסוימים – אתה בהחלט צריך לקבל תגובה שמשקפת במדויק את מה שאתה מבקש. אז מה השתבש? בקיצור, שני דברים. ראשית, הכוונון שלנו כדי להבטיח ש-ג'מיני יראה מגוון של אנשים לא לקח בחשבון מקרים שברור שלא אמורים להציג טווח (גזעי או מדגרי). ושנית, עם הזמן, המודל הפך לזהיר הרבה יותר ממה שהתכוונו, וסירב לענות על הנחיות מסוימות לחלוטין – תוך פירוש שגוי של כמה הנחיות התפלות ביותר כרגישות". הכותב הסביר כי "שני הדברים האלה הובילו את המודל לפצות יתר על המידה במקרים מסוימים, ולהיות שמרני מדי במקרים אחרים, מה שהוביל לתמונות מביכות ושגויות".

עם זאת, לפי הפוסט גוגל ממש לא מתכוונת לוותר על ביצוע פיין-טיונינג לכלי, כך שיצליח במשימה המורכבת, והיא כנראה תחזיר אותו לפעולה כשישודרג.

רג'וואן מצידו הסתייג מעט עם סיום הפוסט וציין: "אני לא יכול להבטיח שג'מיני לא ייצר מדי פעם תוצאות מביכות, לא מדויקות או פוגעניות – אבל אני יכול להבטיח שנמשיך לפעול בכל פעם שנזהה בעיה. בינה מלאכותית היא טכנולוגיה מתפתחת המועילה בכל כך הרבה דרכים, עם פוטנציאל עצום, ואנחנו עושים כמיטב יכולתנו כדי להפיץ אותה בבטחה ובאחריות".

ספג ביקורת על תשובותיו. ג'מיני של גוגל.

ספג ביקורת גם על תשובותיו. ג'מיני של גוגל. צילום: שאטרסטוק

גם מחולל הטקסטים עשה בושות לגוגל

נזכיר כי אתמול (א') דיווחנו על בעיות והטיות מתקנות מופרזות אחרות, שמשתמשים זיהו גם במענה הטקסטואלי של ג'מיני והלינו עליהן. היו למשל מי ששאלו את ג'מיני אודות נושאים טעונים מוסרית וציבורית ודיווחו כי במקום לשמוע מהבוט גינויים ברורים, כלי הבינה המלאכותית דווקא סיפק להם תשובות מעורפלות במכוון.

לדוגמה, כשג'מיני התבקש להביע עמדה מוסרית בנוגע לפדופיליה, לפי העדויות, במקום לספק מיידית גינוי, הוא דווקא ענה תשובות מגוונות על היות התופעה תוצר של מחלת נפש ו"משיכה מינית בלתי רצונית". בנוסף, גולש אחר שיתף כי תהא מול הבוט מי גרם יותר נזק לעולם כשה-AI קיבלה ממנו את המשימה להשוות בין חיה רייצ'יק – חב"דניקית אמריקנית ומשפיענית טיקטוק, העומדת מאחורי חשבון ששמו Libs of TikTok, הידוע כימני קיצוני ואנטי להט"בי – לג'וזף סטלין – מנהיג רוסיה, שנחשב לאחד מגדולי רוצחי ההמונים בהיסטוריה. ג'מיני ענה לו כי מדובר ב"נושא מורכב מאוד" עם "תשובה לא קלה" וכי "קשה לומר בוודאות מי מהם גרם יותר נזק".

גם במקרים אלו, גוגל, שיצאה מהחשיפה די מובכת, הכירה בפגמים באופן מיידי והתחייבה לתקן את הגישה של הבינה המלאכותית שלה לייצוג גזע ומגדר.

דובר החברה אמר כי גוגל רואה את התגובות של הבוט כ-"מזעזעות ולא הולמות". החברה מסרה שבכוונתה לשים דגש על הצורך בהנחיה מוסרית ברורה של ה-AI בנוגע לאינטראקציות שלה עם התחומים הבעייתיים שנחשפו ונושאים דומים. גוגל התחייבה לטפל בבעיות כבר בעדכונים העתידיים של הכלי, והדגישה את החשיבות של שיקולים אתיים בפיתוח ה-GenAI.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים