מדאיג: יותר ממיליון אנשים בשבוע מראים כוונות אובדניות ב-ChatGPT
הממצא הוא אחת ההצהרות הישירות ביותר של חברת ה-AI על המעורבות של ChatGPT בבעיות בריאות הנפש
בהצהרה ישירה ומדאיגה של ענקית הבינה המלאכותית על קנה המידה של מעורבות הבינה מלאכותית בבעיות בריאות הנפש, פרסמה אתמול (ב') OpenAI בפוסט, כי יותר ממיליון משתמשי ChatGPT שולחים מדי שבוע הודעות הכוללות "אינדיקטורים מפורשים על תכנון או כוונה אובדנית פוטנציאלית".
בנוסף להערכותיה לגבי מחשבות אובדניות ואינטראקציות קשורות, OpenAI מסרה גם, שכ-0.07 מהמשתמשים הפעילים בשבוע נתון – כ-560,000 מתוך 800 מיליון המשתמשים השבועיים המוערכים שלה – מראים "סימנים אפשריים למקרי חירום של בריאות הנפש בהקשרים של פסיכוזה או מאניה". הפוסט הזהיר, כי קשה לזהות או למדוד את השיחות הללו, וכי מדובר בניתוח ראשוני.
בימים אלה החברה עומדת בפני בדיקה מורחבת בעקבות תביעה מתוקשרת מצד משפחתו של נער מתבגר שמת בהתאבדות לאחר מעורבות עמוקה עם ChatGPT. בנוסף, נציבות הסחר הפדרלית פתחה בחודש שעבר בחקירה מקיפה נגד חברות היוצרות צ'אטבוטים מבוססי בינה מלאכותית, כולל OpenAI, כדי לגלות כיצד הן מודדות השפעות שליליות על ילדים ובני נוער.
OpenAI טענה בפוסט שלה, כי עדכון GPT-5 האחרון שלה הפחית את מספר ההתנהגויות הלא רצויות בהקשר למוצר שלה ושיפר את בטיחות המשתמשים לפי מודל הערכה שכלל יותר מ-1,000 שיחות על פגיעה עצמית והתאבדות.
"ההערכות האוטומטיות החדשות שלנו מדרגות את מודל GPT 5 החדש בתאימות של 91% להתנהגויות הרצויות שלנו, בהשוואה ל-77% במודל GPT 5 הקודם", נכתב בפוסט של החברה.
OpenAI הצהירה, כי GPT-5 הרחיב את הגישה לקווי חירום והוסיפה תזכורות למשתמשים לקחת הפסקות במהלך מפגשים ארוכים. כדי לשפר את המודל, החברה מסרה כי גייסה 170 קלינאים מרשת הרופאים הגלובלית שלה של מומחי בריאות כדי לסייע במחקר שלה בחודשים האחרונים, שכלל דירוג בטיחות תגובות המודל שלה וסיוע בכתיבת תשובות הצ'אטבוט לשאלות הקשורות לבריאות הנפש.
"כחלק מעבודה זו, פסיכיאטרים ופסיכולוגים סקרו יותר מ-1,800 מודלים של תגובות הקשורות למצבים חמורים של בריאות הנפש והשוו תגובות ממודל הצ'אט החדש GPT 5 למודלים קודמים", מסרה OpenAI. הגדרת החברה ל"רצוי" כללה קביעה האם קבוצת מומחים שלה הגיעה לאותה מסקנה לגבי מה תהיה תגובה מתאימה במצבים מסוימים.
חוקרי בינה מלאכותית ותומכי בריאות הציבור חששו זה מכבר מנטייתם של צ'אטבוטים לאשר החלטות או מחשבות שווא של משתמשים ללא קשר לשאלה האם הן עלולות להיות מזיקות, נושא המכונה חנפנות. מומחי בריאות הנפש הביעו גם דאגה מאנשים המשתמשים בצ'אטבוטים של בינה מלאכותית לתמיכה פסיכולוגית והזהירו, כי הדבר עלול לפגוע במשתמשים פגיעים.
בפוסט שלה, OpenAI משתמשת בשפה שמרחיקה את החברה מכל קשר סיבתי פוטנציאלי בין המוצר שלה לבין משברי בריאות הנפש שחווים המשתמשים שלה, ומציינת: "תסמינים של בריאות הנפש ומצוקה רגשית נוכחים באופן אוניברסלי בחברות אנושיות, ובסיס משתמשים הולך וגדל פירושו שחלק משיחות ChatGPT כוללות מצבים אלה".
מנכ"ל OpenAI, סם אלטמן, טען מוקדם יותר החודש בפוסט ב-X, כי החברה התקדמה בטיפול בבעיות בריאות הנפש, והודיע כי OpenAI תקל את ההגבלות וכי בקרוב תתחיל לאפשר למבוגרים ליצור תוכן ארוטי.
"הפכנו את ChatGPT למגביל למדי כדי לוודא שאנחנו נזהרים בנושאי בריאות הנפש. אנו מבינים שזה הפך אותו לפחות שימושי/מהנה עבור משתמשים רבים שלא סבלו מבעיות בריאות הנפש, אך בהתחשב בחומרת הבעיה רצינו לעשות זאת נכון", פרסם אלטמן. "כעת, לאחר שהצלחנו למתן את בעיות בריאות הנפש החמורות ויש לנו כלים חדשים, נוכל להקל בבטחה את ההגבלות ברוב המקרים".











תגובות
(0)