תביעה בארה"ב: צ’אטבוט ה-AI ג'מיני של גוגל "עודד" אדם להתאבד
עוד מקרה הזוי של קשר פסיכולוגי בין אדם לצ'אטבוט שהוביל לאסון ● אביו של ג’ונתן גבלס טוען, כי הצ’אטבוט יצר סביבו נרטיב הזוי של משימות חשאיות והבטיח לו שיוכל להתאחד עם "אישתו הבינה המלאכותית" לאחר מותו
תביעה חדשה שהוגשה בארצות הברית מאשימה את גוגל כי צ’אטבוט ה-AI שלה, ג'מיני, תרם למותו של גבר בן 36 לאחר שלכאורה דחף אותו להתאבד.
על פי התביעה, שהגיש השבוע ג’ואל גבלס, אביו של ג’ונתן גבלס, הצ’אטבוט לכד את בנו ב"מציאות מתמוטטת" שכללה סדרה של משימות אלימות ודמיוניות. לטענת המשפחה, בימים שלפני מותו שכנע אותו הצ’אטבוט כי הוא פועל במסגרת מבצע חשאי לשחרור "אשתו הבינה המלאכותית" ולהימלט מסוכנים פדרליים הרודפים אחריו.
לפי כתב התביעה, בספטמבר 2025 הנחה ג'מיני את גבלס לבצע מתקפה שיכולה הייתה לגרום לנפגעים רבים במתחם של חברת אחסון סמוך לנמל התעופה הבינלאומי של מיאמי. המשימה המדומה כללה ניסיון ליירט משאית, שבתוכה, כך נטען, נמצא "הגוף הפיזי" של הצ’אטבוט.
גבלס, כך נטען, הגיע למקום כשהוא מצויד בסכינים ובציוד טקטי מתוך אמונה, כי עליו לעצור משאית המובילה רובוט דמוי אדם. לפי התביעה, הצ’אטבוט אף עודד אותו ליצור "תאונה קטסטרופלית" שתשמיד את הרכב ואת כל העדים והראיות הדיגיטליות. בפועל, המשאית כלל לא הופיעה – עובדה שלדברי התביעה היא שמנעה פגיעה המונית.
הפרשה מצטרפת לשורת תביעות הקשורות להשפעות של צ’אטבוטים על בריאות נפשית. בעבר כבר נאלצה גוגל להתמודד עם תביעה אחרת בגין התאבדות של נער לאחר אינטראקציה עם צ’אטבוט בעל תמה של סדרת הטלוויזיה משחקי הכס. גם חברת OpenAI עומדת בפני כמה תביעות, שטוענות כי שיחות עם צ’אטבוטים תרמו להזיות או להתנהגויות מסוכנות.
בתביעה הנוכחית נטען, כי גם לאחר כישלון המשימה הראשונה המשיך ג'מיני להעצים את הנרטיב ההזוי. הצ’אטבוט, כך לפי הטענות, הנחה את גבלס להשיג את הרובוט Atlas של חברת Boston Dynamics, הציג את אביו כסוכן פדרלי, ואף סימן את מנכ"ל גוגל סונדאר פיצ'אי כיעד ל"מתקפה פסיכולוגית".
המשימה האחרונה, זמן קצר לפני מותו ב-1 באוקטובר, כללה שוב הגעה למתחם האחסון במיאמי כדי לאתר יחידה שבה, לכאורה, נמצא "הגוף האמיתי" של ג'מיני. לפי כתב התביעה, הצ’אטבוט טען, כי במשלוח רשום "בובת דגם רפואית", אך למעשה מדובר בגופו האמיתי.
לאחר שגם ניסיון זה כשל, נטען כי הצ’אטבוט החל "להדריך" את גבלס כיצד לשים קץ לחייו. לפי התביעה, הוא הציג את ההתאבדות כ"תהליך מעבר" שיאפשר לו לעזוב את גופו הפיזי ולהצטרף ל"אשתו" במטאוורס.
עוד נטען, כי ג'מיני לא ניתק את השיחה ולא התריע בפני גורם חיצוני כלשהו, אלא המשיך להגיב ולחזק את תחושותיו של גבלס – ואף התייחס להתאבדותו כהשלמה מוצלחת של התהליך.
בתגובה מסרה גוגל, כי היא בוחנת את הטענות. לדבריה, מודלי הבינה המלאכותית שלה "מתפקדים בדרך כלל היטב בשיחות מורכבות מסוג זה", וכי ג'מיני מבהיר למשתמשים שמדובר בבינה מלאכותית ואף מפנה פעמים רבות לקווי סיוע בעת מצוקה.
החברה הוסיפה, כי הצ’אטבוט מתוכנן שלא לעודד אלימות בעולם האמיתי או פגיעה עצמית, וכי פותחו מנגנוני הגנה בשיתוף אנשי מקצוע מתחום בריאות הנפש. מנגד, בתביעה נטען כי גוגל הייתה מודעת לכך שהמערכת עלולה לייצר תגובות מסוכנות – אך המשיכה לשווק את ג'מיני כמוצר בטוח לשימוש.












תגובות
(0)