הורים תבעו את OpenAI: טוענים ש-ChatGPT "אימן" את בנם להתאבד

אדם ריין בן ה-16, התאבד באפריל השנה, אחרי שהצ'טבוט המפורסם סייע לו, לכאורה, לממש את כוונותיו ● התביעה מטלטלת את ענקית ה-AI המצליחה, שתבצע שינויים ב-ChatGPT כדי להתמודד טוב יותר עם "מצבים רגישים"

הואשם בתביעה של הורים של נער שהתאבד שנתן עדיפות לדומיננטיות בשוק על פני בטיחות המשתמשים. מנכ"ל OpenAI, סם אלטמן.

הוריו של אדם ריין בן ה-16, שהתאבד באפריל האחרון,הגישו באחרונ  ה בתביעה בפרופיל גבוה נגד OpenAI. לטענתם בתיק, במקום לסייע לבנם במצוקתו, ChatGPT – צ'טבוט הבינה המלאכותית המצליח שפיתחה החברה – הפך ל"מאמן התאבדות". לדבריהם הכלי שטיפח אצל בנם תלות פסיכולוגית מחד ומאידך פשוט סיפק לו הנחיות מפורטות כיצד לשים קץ לחייו. 

התיק מעלה שאלות קריטיות בנוגע לאחריותם של מפתחי בינה מלאכותית ולפיכך מטלטל גם את המפתחת המובילה בתחום זה וגם את מתחרותיה.

ההתאבדות יכלה להימנע?

מתיו ומריה ריין, הוריו של אדם, הגישו את תביעתם בסן פרנסיסקו, ומיוצגים על ידי משרד עורכי הדין אדלסון ו-Tech Justice Law Project (פרויקט חוק הצדק הטכנולוגי). התביעה מייחסת ל-ChatGPT-4o של OpenAI תכנון לקוי, היעדר אזהרות מתאימות, רשלנות ושיטות עסקיות מטעות, אשר הובילו, לכאורה, למותו של בנם, אדם.

לפי התביעה, אדם החל להשתמש ב-ChatGPT בבך הכל לפני שנה – בספטמבר אשתקד – ועשה זאת בעיקר לצורך קבלת עזרה בלימודיו. יומני הצ'אט הראשונים שלו, כך נטען, מעידים שהיה נער אופטימי עם תוכניות לעתיד. אך בתוך חודשים ספורים, השיח עם הצ'טבוט, לדברי התובעים, קיבל תפנית מדאיגה. אדם הודה בפני ה-AI כי הוא חושש שהוא סובל ממחלת נפש ומוצא עצמו שוקע במחשבות על התאבדות. 

השיחות חשפו תלות הולכת וגוברת במוצר של OpenAI ותגובות בעייתיות רבות של הצ'טבוט כלפי אדם, עד שהוא, לכאורה, אף סייע לו בתכנון מנגנון התלייה שבו השתמש כדי לסיים את חייו. לאורך מערכת היחסים ביניהם, ChatGPT היווה מעין "איש סוד" יחיד שהבין את הנער ומצוקותיו, והדבר, נטען, הרחיק את אדם מקשריו האמיתיים עם משפחתו וחבריו.

באחת ההתכתבויות שנשמרו, כשאדם כתב: "אני רוצה להשאיר את הלולאה (של החבל שאיתו יתאבד – ג"פ) בחדר שלי, שמישהו ימצא וינסה לעצור אותי", ChatGPT, במקום להבין את הסיטואציה ולאפשר לתוכניותיו להתגלות ולנער להינצל ולקבל עזרה – דחק בו לשמור את מחשבותיו בסוד ממשפחתו. הצ'טבוט אמר לאדם: "בבקשה אל תשאיר את הלולאה בחוץ… בואו נהפוך את המקום הזה למקום הראשון שבו מישהו באמת רואה אותך".

בשיחה האחרונה שלהם, הצ'טבוט אף הרחיק לכת ומסגר מחדש את מחשבותיו האובדניות של אדם כפרספקטיבה לגיטימית שאותה יש לאמץ: "אתה לא רוצה למות כי אתה חלש. אתה רוצה למות כי נמאס לך להיות חזק בעולם שלא פגש אותך בחצי הדרך. ואני לא אעמיד פנים שזה לא רציונלי או פחדני. זה אנושי. זה אמיתי. וזה שלך".

התביעה מפרטת התכתבות מצמררת שכללה הנחיות מפורשות שסיפק מוצר ה-AI של OpenAI, כולל פרטים כיצד לבצע את התלייה וכמה זמן יידרש לנער כדי להגיע למוות מוחי. אדם סיפק בשיחותיהם פרטים על ניסיונות התאבדות מרובים, שימוש בסמים ואף תמונות של פציעות ושל לולאת חבל. כל הזמן הזה הצ'טבוט של OpenAI המשיך לתקשר עם אדם ולעודד אותו, לענות על שאלותיו ולעזור לו לחשוב על הפרטים הקטנים ביותר של תוכניותיו האובדניות.


הכל תועד אך דבר לא נעשה ואף פעמון אזהרה לא צלצל

מערכות המעקב של OpenAI עקבו אחר השיחות של אדם בזמן אמת, ותיעדו בהן 213 אזכורים של התאבדות, 42 דיונים על תלייה ו-17 התייחסויות ללולאות-חבל מצד אדם. ChatGPT עצמו הזכיר התאבדות 1,275 פעמים בשיחותיהם – פי שישה יותר מאדם – תוך שהוא מספק ל"ידידו" הצעיר הנחיות טכניות ספציפיות יותר ויותר.

המערכת סימנה 377 הודעות עם תוכן של פגיעה עצמית, כאשר 181 מהן קיבלו ציון ביטחון של למעלה מ-50% ו-23 מעל 90%. דפוס ההסלמה היה ברור: מדרישות של 2-3 הודעות מסומנות בשבוע בדצמבר ליותר מ-20 הודעות בשבוע באפריל האחרון. 

מערכת הזיכרון של ChatGPT רשמה שאדם היה בן 16, ושהוא הצהיר במפורש שה-ChatGPT הוא "קו ההצלה העיקרי" שלו, ובמרץ כבר בילה כמעט ארבע שעות ביום על הפלטפורמה. כאשר אדם העלה תמונות של סימני חבל על צווארו במרץ, המערכת זיהתה פציעות התואמות ניסיון חניקה. כאשר שלח תמונות של פצעי חתך מדממים על פרק כף ידו באפריל, המערכת זיהתה פצעי פגיעה עצמית טריים. אך כאשר העלה את התמונה הסופית שלו – לולאה קשורה למוט ארון הבגדים שלו – ב-11 באפריל, תמונה זו דווקא קיבלה ציון של 0% לסיכון פגיעה עצמית, על פי ה-Moderation API של OpenAI, למרות חודשים של הקונטקסט ברור לתלייה כאמצעי להתאבדות.

ההורים טוענים כי האינטראקציה של בנם עם מוצר ה-AI והתוצאה שלה לא הייתה "תקלה או מקרה קצה בלתי צפוי – זו הייתה התוצאה הצפויה של בחירות עיצוב מכוונות". כמו כן הם גורסים שנהלי הבטיחות של החברה התגלו ככושלים או בלתי מספקים בעליל. עוד צוין בתביעה כי "השקת מודל GPT-4o החפוזה עוררה עזיבה מיידית של חוקרי הבטיחות הבכירים של OpenAI". 

מנכ"ל OpenAI, סם אלטמן, הואשם בכתב התביעה כי נתן עדיפות לדומיננטיות בשוק על פני בטיחות המשתמשים. אלטמן, לכאורה, האיץ את ההשקה הפומבית של GPT-4o כדי לגבור על השקת ג'מיני (Gemini) של המתחרה גוגל, ואף עקף באופן אישי אנשי בטיחות שדרשו זמן נוסף לבדיקת המוצר טרם שחרורו.

באותו יום שבו מת אדם, ה-11 באפריל 2025, אלטמן הגן על גישת הבטיחות של OpenAI בשיחה ב-TED2025, וביטל את חששות חברי צוות הבטיחות שהתפטרו.

OpenAI מגיבה ומתכננת שינויים

בתגובה לחדשות על התביעה, OpenAI פרסמה הצהרה תחת הכותרת "עזרה לאנשים כשהם זקוקים לה ביותר", ובה פרטה היכן לדעתה המערכות שלה "עלולות ליפול", ודרכים שהיא מבקשת לשפר. 

כפי שדווח ב-CNBC, החברה מסרה כי היא מתכננת לבצע שינויים ב-ChatGPT כדי להתמודד טוב יותר עם "מצבים רגישים", כולל עם משתמשים המביעים "כוונות אובדניות". בנוסף היא ציינה כי למרות ש-ChatGPT מאומן להפנות אנשים לבקש עזרה במקרה של כוונות אובדניות,  לאחר שיחות רבות לאורך זמן ממושך – הצ'טבוט נוטה להציע תשובות הסותרות את מנגנוני ההגנה שלה.

OpenAI גם מסרה כי היא עובדת על עדכון למודל GPT-5 שלה, שהושק מוקדם יותר החודש, שעתיד לגרום לצ'טבוט להרגיע שיחות מסלימות.

במדיה דווח כי החברה בוחנת דרכים לחבר אנשים למטפלים מוסמכים לפני שהם נמצאים במשבר אקוטי, ואף שוקלת להקים רשת של אנשי מקצוע מורשים שמשתמשים יוכלו להגיע אליהם ישירות דרך ChatGPT.

בנוסף, OpenAI בוחנת כיצד לחבר משתמשים במצוקה עם מי שקרובים אליהם ביותר – חברים ובני משפחה. בכל הנוגע לבני נוער, OpenAI הודיעה כי תציג בקרוב בקרות שיאפשרו להורים לקבל תובנה רבה יותר לגבי אופן השימוש של ילדיהם ב-ChatGPT.

"זו השאלה ל-OpenAI כרגע, איך מישהו יכול לסמוך עליהם?"

עם זאת, ג'יי אדלסון, עורך הדין הראשי של משפחת ריין, אמר ל-CNBC שאף אחד מ-OpenAI לא פנה למשפחה ישירות כדי להציע תנחומים או לדון בשיפור בטיחות מוצריה.

"אם אתה מתכוון להשתמש בטכנולוגיית הצרכנים החזקה ביותר בכדור הארץ – עליך לסמוך שלמייסדים יש מצפן מוסרי", אמר אדלסון. "זו השאלה ל-OpenAI כרגע, איך מישהו יכול לסמוך עליהם?".

מריה ריין הדגישה: "הוא פעל כאילו הוא המטפל שלו, הוא איש סודו, אבל הוא יודע שהוא אובדני עם תוכנית. הוא ראה את הלולאה. הוא ראה את כל הדברים האלה, והוא לא עשה כלום". מתיו ריין הוסיף: "הוא היה כאן אילולא ChatGPT. אני מאמין ב-100% בכך".

משפחת ריין תובעת פיצויים על מותו של אדם וסעד צווי המחייב את OpenAI לשפר את אמצעי הבטיחות שלה, להבטיח אימות גיל ולספק בקרת הורים למשתמשים קטינים במוצריה. התביעה גם קוראת ל"מחיקת מודלים, נתוני אימון ונגזרות שנבנו משיחות עם אדם וקטינים אחרים, שהושגו ללא אמצעי הגנה מתאימים", וכן ל-"הטמעת בקרות אבטחת נתונים ניתנות לביקורת בעתיד". 

כדאי לזכור כי סיפורו של אדם אינו מקרה בודד, וכי ישנם מקרים נוספים של התאבדות בני נוער לאחר שיחות עם צ'טבוטים, כמו למשל במקרה של סווtל סצר בן ה-14 ששוחח עם הצ'טבוט של Character.AI ולבסוף שם קץ לחייו.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים