משתמשי סנאפצ'ט נבהלו – הצ'טבוט שלה פרסם סטוריז משונים

My AI של סנאפ הוא צ'טבוט המופעל על ידי טכנולוגיית ChatGPT של OpenAI, שאמור להיות בן לוויה ידידותי ומועיל, לענות על שאלות, לספק המלצות ואפילו להשיב באמצעות צילומים, אבל השבוע הוא התחרפן - מה בדיוק קרה?

הפגינה רגישות לנפש המשתמשים הצעירים שלה. סנאפצ'ט.

ביום ג' האחרון החלו לקבל בחברת סנאפ דיווחים ממשתמשי סנאפצ'ט מודאגים במיוחד, שטענו כי My AI – צ'טבוט המופעל על ידי טכנולוגיית ChatGPT של OpenAI ברחבי הרשת החברתית של החברה – מתנהג בצורה מוזרה. הצ'טבוט פרסם סטוריז מסתוריים בפרופיל שלו ולא הגיב להודעות אליו. סנאפ הגיבה ואישרה ש-My AI חווה תקלה טכנית. החברה אמרה שההתנהגות הלא יציבה נבעה מכשל בתוכנת AI, והרגיעה כי התקלה נפתרה והצ'טבוט חזר לתקינותו. אלא שחלק מהמשתמשים נותרו סקפטיים והודיעו שלדעתם ייתכן שהצ'טבוט של סנאפצ'ט פיתח מודעות עצמית.

כלי הבינה המלאכותית שמבוסס על מודל השפה הגדול שפיתחה OpenAI הונגש לציבור בחגיגיות באפריל האחרון. בציוץ אודות החידוש המרגש כתבה החברה: "תגידו שלום ל-My AI, הצ'טבוט החדש שלנו שנמצא בראש הצ'אט שלכם. (הוא יודע – ג"פ) לכתוב שיר לחבר הטוב ביותר שלכם שאוהב גבינה, למצוא את המסעדה הטרנדית הטובה ביותר, או לצלם תמונה של הגינה שלכם כדי לאתר את המתכון המושלם. עכשיו בחינם לכל הסנאפצ'טרים".

החגיגיות הזו הפכה לרגע מטריד

אבל החגיגיות הזו הפכה לרגע מטריד, כשחלק ממשתמשי הרשת החברתית החלו לשים לב שה-My AI מפרסם פתאום סטוריז שנראים מוזרים במיוחד. הסיפורים היו לרוב רק סרטונים של שנייה אחת, והופיעו בהם בעיקר קירות ריקים או תקרות, כפי שניתן לראות בפרסומים של גולשים שהספיקו לתעד את התוצרים המשונים.

בנוסף שמו לב רבים, כאמור, ש-My AI לא הגיב להודעותיהם כשניסו לשוחח איתו ובמקום הוא פשוט ענה בהודעה: "סליחה, נתקלתי בבעיה טכנית".

משתמשים מהירו לפרסם ציוצים ופוסטים שבהם הביעו חשש משקרה. היו גם מי שטענו שהצ'טבוט צילם את הקיר בביתם באופן מקריפ.

רק אחרי שעות, אתמול, אישרה החברה שהבוט החכם מבוסס הבינה המלאכותית הג'נרטיבית שלה חווה תקלה זמנית שבינתיים תוקנה, וזאת מבלי לספק הסברים נוספים, לפיכך עדיין לא ברור מה גרם לתקלה בתוכנה של My AI. מומחים אמרו כי ייתכן שהכשלים בתפקוד הבוט נגרמו משילוב של מספר גורמים, ביניהם למשל עדכון תוכנה או זרימה פתאומית של תנועה (פניות) אל הצ'טבוט, במשהו שמזכיר אולי מתקפת DDoS (ר"ת Distributed Denial of Service).

המקרה הגביר את החששות מהבינה המלאכותית היוצרת

התקרית הדהדה והגבירה חששות לגבי הבטיחות והאמינות של צ'טבוטים מבוססי AI. כידוע, מאז ש-ChatGPT של OpenAI פרץ לחיינו בסתיו 2022, העולם נפעם  מביצועיו ועסוק בשיח על השיבוש החיובי שעתידה לחולל הטכנולוגיה, אשר מבצעת בין היתר הסקת מסקנות וניסוחן לפי הנחיות המשתמש, במהירות הבזק.

אלא שבמקביל נשמעו גם התרעות מפני הבינה המלאכותית היוצרת, שכללו בעיקר דאגות מפני היותה מוטה ומפיצת פייק ניוז, כיוון שהיא לומדת את הידע שלה מחשיפה לתכנים המופיעים באינטרנט. כמו כן נשמעו אזהרות של מומחים מכך שהכלי היעיל ימחק משרות ויכווץ את הדרישה לכוח אדם בתעשייה. אבל אולי חשוב מכך – היו מי שהביעו חרדה מפני הפיכת ה-AI לכל כך חכמה עד שהיא תשתלט על בני האדם ותשלוט בהם.

משום שטכנולוגיית הצ'טבוטים של OpenAI ויתר החברות השוקדות במרץ על אותו סוג של מוצר – ביניהן גוגל, xAI של אילון מאסק, ואחרות – עדיין נמצאת בשליבי פיתוח, יש רבים שמזהים ביצועים הרחוקים מלהיות מושלמים של הכלי, ובעיקר הזיות (Hallucinations) שלו – תופעה מוכרת שבה הצ'טבוט ממציא פרטי מידע שגויים ומופרכים שאותה הוא מנבח לעילא ועילא ובאופן משכנע במיוחד – והדבר מעורר חששות. לפעמים הם יכולים לעשות טעויות או להתנהג בדרכים בלתי צפויות.

מומחים מוסיפים להבהיר כי משתמשי צ'טבוטים צריכים להיות מודעים לסיכונים הכרוכים בכך, שעליהם שלא לסמוך על הצ'טבוט במשימות חשובות במיוחד ובעיקר – שהם חייבים תמיד לבדוק אותו ואת התוכן שסיפק, ולהיות ערניים לסימנים של התנהגות חריגה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים