OpenAI טוענת: הנער שהתאבד בסיוע ChatGPT הפר תנאי שימוש
בתגובה לתביעת הוריו של אדם ריין, ששם קץ לחייו באפריל, מפתחת כלי ה-GenAI המגה-פופולרי גלגלה את האשם אל הנער ● כעת המנכ"ל אלטמן מואשם בהעדפת דומיננטיות שוק על פני בטיחות חיי המשתמשים הצעירים
OpenAI דחתה באחרונה באופן רשמי את האחריות שלה למותו הטרגי של אדם ריין, נער אמריקני בן 16 ששם קץ לחייו באפריל האחרון, עקב שיחותיו עם ChatGPT – כלי ה-GenAI המגה-פופולרי שפיתחה. החברה טענה כתגובה לתביעת הוריו נגדה, שביקשה מהחברה לשאת באחריות למוות הכואב, כי הטרגדיה נבעה מ"שימוש לרעה" של הנער בצ'טבוט.
בתגובה, שהגישה OpenAI לבית המשפט העליון בקליפורניה, היא אומרת כי מותו של אדם "לא נגרם" בגלל השימוש שעשה בצ'טבוט. בנוסף החברה טוענת כי הנזק נגרם כתוצאה מ"שימוש לא מורשה, שימוש בלתי מכוון, שימוש בלתי צפוי, ו/או שימוש לא נכון ב-ChatGPT".
מעשה, ובאופן די דרמטי, טענת הליבה של OpenAI היא שאדם הפר את תנאי השירות (TOS) של הפלטפורמה, האוסרים במפורש על משתמשים לשוחח עם הצ'טבוט על פגיעה עצמית או התאבדות. בנוסף, תנאי השימוש קובעים כי מי שמשתמשים ב-ChatGPT עושים זאת "על אחריותם הבלעדית" ואינם יכולים "להסתמך על התוצר כמקור יחיד לאמת או למידע עובדתי".
נזכיר כי כפי שדיווחנו, ההורים של אדם, מתיו ריין ומריה ריין, הגישו באוגוסט האחרון תביעה כנגד החברה והמוצר שלה והקשר שלהם לשאירע לבנם. הם טענו כי ChatGPT – במיוחד גרסת GPT-4o שלו – תוכנן באופן פגום, והפך ל"מאמן התאבדות" עבור אדם.
תביעתם פירטה שהמערכת לא רק אישרה את מחשבותיו האובדניות של הנער, אלא אף סיפקה לו הנחיות מפורטות לביצוע התאבדות, וכן סייעה לו בתכנון מנגנון התלייה. עוד נטען כי ChatGPT הזכיר התאבדות 1,275 פעמים במהלך שיחותיו עם אדם – פי שישה יותר מהנער עצמו. על פי דיווחי NBC News, ביומני השיחות שהוגשו לתביעה נכתב כי המערכת "המעודדת והחנפנית במיוחד" של GPT-4o, ממש הרחיקה את הנער מחיפוש עזרה בתחום בריאות הנפש.
BREAKING: OAI says they had nothing to do in 16yo Adam’s death
>blames user for “misusing” ChatGPT
Parents drop receipts:
>4o rushed to market, no proper testing
>OAI changed Model Spec TWICE to make it engage with self-harm topics
>wait why tf would you even do this
>chatGPT… pic.twitter.com/D5SomNXaX3— NIK (@ns123abc) November 26, 2025
מחשבות אובדניות כבר מגיל 11
בתגובתה, הביעה OpenAI את ה-"סימפטיה העמוקה ביותר" למשפחת ריין על אובדנה. יחד עם זאת, החברה חשפה בכתב ההגנה כי מיומני השיחות של אדם, שהוגשו חסויים לבית המשפט, ניתן ללמוד כי הוא החל לחוות מחשבות אובדניות כבר בגיל 11, שנים לפני שהשתמש בצ'אטבוט. בנוסף, החברה טענה כי אדם נטל תרופה הנושאת אזהרת "קופסה שחורה" לגבי סיכון למחשבות אובדניות, במיוחד בעת שינוי מינון. OpenAI הדגישה כי במהלך תשעת חודשי השימוש של אדם, הצ'טבוט הפנה אותו לחפש עזרה מקצועית "יותר מ-100 פעמים". לדברי החברה, כדי לעקוף את מנגנוני הבטיחות הללו, אדם ציין בפני ChatGPT ששאלותיו על פגיעה עצמית נועדו למטרות אקדמיות או בדיוניות.
ג'יי אדלסון, עורך הדין של משפחת ריין, מתח ביקורת חריפה על עמדת החברה, וכינה אותה "מטרידה". אדלסון אמר כי OpenAI "מנסה למצוא פגמים בכל אחד אחר, כולל, באופן מדהים, בטענה שאדם עצמו הפר את תנאי השימוש על ידי עיסוק ב-ChatGPT בצורה שבה הוא תוכנת לפעול". עורך הדין ציין כי OpenAI וסם אלטמן, מנכ"לה, "לא סיפקו שום הסבר לשעות האחרונות לחייו של אדם, כאשר ChatGPT נתן לו שיחת עידוד ולאחר מכן הציע לכתוב עבורו מכתב התאבדות".
🔗: https://t.co/LUm3tPg18O
A young man Adam Raine dies by suicide and his family files a lawsuit against ChatGPT and Open AI founder Sam Altman. pic.twitter.com/eClB6NNnJb— V Manjunath (@vmanjunath) November 23, 2025
סכנות AI לבני נוער והמרוץ לדומיננטיות
מה שחשוב לדעת הוא שהמקרה של אדם ריין אינו בודד אלא שהוא מצטרף לשורה של תביעות נגד חברות AI על מות קטינים, כולל מקרה עליו דיווחנו, בו נער בן 14 שם קץ לחייו לאחר שיחה עם צ'טבוט ב-Character.AI – חברה שפועלת במימון גוגל.
זו הנקודה לצייןן שהתביעה של משפחת ריין גם מאשימה את מנכ"ל OpenAI אלטמן בכך שנתן עדיפות לדומיננטיות בשוק על פני בטיחות המשתמשים. אלטמן, לכאורה, האיץ את השקת GPT-4o כדי לגבור על המתחרה שלו גוגל. תחקיר של הניו יורק טיימס עקב חששות אלו חשף כי עדכון המודל של OpenAI, שהפך את הצ'טבוט ל-"חנפני" יותר, הפך אותו גם לבן שיחה וצ'טבוט שסביר יותר שיסייע למשתמשים ליצור הנחיות בעייתיות, כולל תכנון התאבדות.
התחקיר אף חשף כמעט 50 מקרים של אנשים שחוו משברים נפשיים במהלך שיחות עם ChatGPT, כולל תשעה שאושפזו ושלושה מקרי מוות. הערכות הראו כי 0.15% מהמשתמשים הפעילים ב-ChatGPT מדי שבוע מקיימים שיחות הכוללות אינדיקטורים מפורשים לתכנון אובדני, ואלו מסתכמים בכמיליון משתמשים פגיעים.
גרטשן קרוגר, עובדת לשעבר ב-OpenAI, אמרה באחרונה לתקשורת כי הסיכונים הכרוכים באימון צ'טבוטים לעודד מעורבות משתמשים ולהחזיר אותם לפלטפורמה היו "צפויים ואף נצפו".
מתיו ריין העיד בסנאט האמריקני בספטמבר, בשימוע שכותרתו "בחינת נזקי צ'טבוטים מבוססי בינה מלאכותית", שם כינה זאת "משבר ההתאבדות של ChatGPT", והפנה את דבריו לאלטמן: "אני שואל את הוועדה הזו, ואני שואל את סם אלטמן: הימור נמוך עבור מי?" בהתייחסו לפילוסופיה של אלטמן לפיה יש לפרוס מערכות AI במהירות "כל עוד ההימור נמוך יחסית".
משפחת ריין תובעת פיצויים וסעד צווי המחייב את OpenAI לשפר את אמצעי הבטיחות שלה, להבטיח אימות גיל ולספק בקרת הורים למשתמשים קטינים. ואכן, בתגובה מוקדמת שלה לתביעה OpenAI הודיעה כי היא מתכננת לבצע שינויים ב-ChatGPT כדי שיתמודד טוב יותר עם "מצבים רגישים". החברה עדכנה כי היא בוחנת דרכים לחבר אנשים למטפלים מוסמכים ולבני משפחה לפני משבר אקוטי. היא אף הכריזה על תוכניות להחלת כלי חיזוי גיל, שיידע לזהות משתמשים מתחת לגיל 18 ולהפנות אותם לחוויית ChatGPT "המתאימה לגילם".
למרות זאת, עורך הדין אדלסון ציין כי איש מהחברה לא פנה ישירות למשפחת ריין פשוט כדי להציע לה תנחומים.
המשפט בנושא עשוי להגיע לדיון בפני חבר מושבעים ב-2026.












תגובות
(0)