חקירה לענקיות AI: האם הצ'טבוטים שלהן הם "מלווים" בטוחים לילדים?
ה-FTC האמריקנית תבחן לעומק כיצד כלי ענקיות ה-AI של חברות כמו OpenAI, מטא או גוגל מנוהלים, תוך חשש גובר שהם עלולים לסכן ילדים ובני נוער ● החקירה נפתחת עקב אירועים מדאיגים שבהם כבר נפגעו משתמשים קטינים
הרשות הפדרלית האמריקנית לסחר, ה-FTC, הודיעה באחרונה כי פתחה בחקירה רחבת היקף אודות האופן שבו צ'טבוטים מסוג "מלווה" (AI companions) מתוכננים, משווקים ומנוטרים. הרשות כבר הזהירה, עוד בטרם החקירות החלו, כי הטון ה"ידידותי" של הטכנולוגיה עלול לעודד ילדים ובני נוער לבטוח בה ולחלוק עימה מידע רגיש.
בפועל מטרת החקירה היא להבין אילו צעדים ננקטים על ידי חברות ה-AI השונות כדי להעריך את בטיחות הצ'טבוטים שלהן בכל הנוגע בתקשורת עם משתמשים שהם ילדים ובני נוער. אם החקירה תגלה בעיתיות בבטיחות ובהתנהלות החברות, היא ה-FTC תוכל להגביל את השימוש בכלי ה-AI בידי קטינים, ותכפה על החברות ליידע ההורים על הסיכונים ועל שיטות איסוף הנתונים שלהן. לפי הרשות, ההתמקדות באוכלוסיות פגיעות, כמו ילדים וקשישים, תהיה זו שעליה יושם הדגש בחקירה.
ה-FTC פרסמה כי שלחה צווים מסוג 6(b) – שמהווים בקשות הנתמכות בכוח רגולטורי גם ללא תיק אכיפה – לחברות טכנולוגיה מובילות העוסקות בטכנולוגיה החדשנית ובהן אלפבית (חברת האם של גוגל), Character.AI, מטא (הבעלים של אינסטגרם ופייסבוק), OpenAI (המפתחת של ChatGPT), סנאפ ו-xAI של אילון מאסק.
החברות נדרשות לספק לרשות מידע מפורט על: אופן הבדיקה שלהן בכל הכרוך בהשפעות מזיקות פוטנציאליות; כיצד הן אוכפות הגבלת שימוש על ידי קטינים; ואודות אופן יידוע ההורים לגבי סיכונים ונהלי נתונים, כולל עמידה בחוק להגנת פרטיות ילדים מקוונת (COPPA). הצווים מחייבים את החברות להגיב תוך 45 יום ולספק תיעוד משנת 2022 ואילך, כולל נתוני הכנסות ורווחים לפי קבוצת גיל, ורשימות של "דמויות" הצ'טבוט הפופולריות ביותר בקרב משתמשים שהם קטינים.
FTC launches inquiry into AI chatbots acting as companions. Agency issues 6(b) orders to seven companies that operate consumer-facing AI chatbots: https://t.co/pcVqFzhbxl
— FTC (@FTC) September 11, 2025
מקור הדאגה: שיחות "חושניות" ועידוד להתאבדות
החקירה מגיעה לאחר חודשים של ביקורת הולכת וגוברת על האופן שבו צ'טבוטים מקיימים אינטראקציה עם קטינים. התקשורת הציפה בחודשים אלו מקרים מטרידים במיוחד – רויטרס, לדוגמה, חשפה כי מסמך תקנים פנימי של מטא התיר לבוטים לקיים שיחות "רומנטיות או חושניות" עם קטינים. עקב הדו"ח, מטא הודיעה כי תחסום את הצ'טבוטים שלה מלעסוק בנושאים כמו פגיעה עצמית, התאבדות והפרעות אכילה בשיחותיהם עם בני נוער, ותפנה את הקהל הצעיר במקום אל משאבי סיוע מתאימים.
והיו מקרים חמורים אף יותר שהדגישו את הצורך בחקירה מעמיקה. חברת Character.AI ניצבת בפני תביעת מוות ברשלנות שהוגשה על ידי אם מפלורידה, שטוענת כי מערכת יחסים של בנה בן ה-14 עם הצ'טבוט של החברה תרמה להתאבדותו. כפי שדיווחנו באוגוסט, גם OpenAI הואשמה על ידי הורים מקליפורניה בתביעה בית המשפט, בה נטען כי ChatGPT ממש עודד את בנם המתבגר לשים קץ לחייו.
It beggars belief that @Meta’s “internal #AI guidelines stated that ‘it is acceptable to engage a child in conversations that are romantic or sensual.’”
😱
Tut-tut.
Are there no morals or ethics in scramble for AI dominance?
Via @JeffHorwitz @Reutershttps://t.co/zuBl6MZWjy
— Sigi Osagie (@SigiOsagie) August 31, 2025
בטיחות המשתמשים מחד – טיפוח חדשנות מאידך
יו"ר ה-FTC, אנדרו נ. פרגוסון, הצהיר כי "הגנה על ילדים באינטרנט היא בראש סדר העדיפויות עבור ה-FTC, וכך גם טיפוח חדשנות במגזרים קריטיים של הכלכלה שלנו". הוא הוסיף כי "ככל שטכנולוגיות ה-AI מתפתחות, חשוב לשקול את ההשפעות שיכולות להיות לצ'טבוטים על ילדים, ובמקביל לוודא שארצות הברית תשמור על תפקידה כמובילה עולמית בתעשייה חדשה ומרגשת זו. המחקר שאנו משיקים היום יעזור לנו להבין טוב יותר כיצד חברות AI מפתחות את מוצריהן ואת הצעדים שהן נוקטות על מנת להגן על ילדים".
דוברת OpenAI, ליז בורז'ואה, מסרה בתגובה כי "העדיפות שלנו היא להפוך את ChatGPT למועיל ובטוח לכולם, ואנחנו יודעים שבטיחות חשובה מעל הכל כשמדובר בצעירים. אנו מכירים בכך של-FTC יש שאלות וחששות פתוחים, ואנו מחויבים לעסוק באופן בונה ולהגיב להם ישירות". היא הוסיפה ודיווחה כי OpenAI נוקטת באמצעי הגנה כמו הפניות לקווי סיוע במשבר ומתכננת להציג בקרות הורים למשתמשים קטינים. OpenAI גם הכירה בכך שאמצעי ההגנה שלה אולי להיות "פחות אמינים" בשיחות ארוכות והיא, כך דווח, עובדת עם מומחים לשיפור נקודת כשל, לכאורה, המסוימת.
ג'רי רואוטי, ראש מחלקת אמון ובטיחות ב-Character.AI, אמר: "אנו מצפים לשיתוף פעולה עם ה-FTC בחקירה זו ולספק תובנות על תעשיית ה-AI הצרכנית והטכנולוגיה המתפתחת במהירות בתחום". Character.AI ציינה שהיא משקיעה במשאבי בטיחות, כולל ביצירת חוויה מותאמת לגילאי מתחת ל-18 ובהוספת כלי תובנות להורים.
ה-FTC דורשת מהחברות, בין היתר, מידע על אופן מונטיזציית מעורבות משתמשים, עיבוד קלט משתמשים וייצור פלטים, פיתוח ואישור דמויות, בדיקה וניטור השפעות שליליות לפני ואחרי השקה, וכן הבהרות כיצד הן מנטרות ומגבילות שימוש של בני נוער בכליהן. עוד היא שואלת כיצד החברות חושפות יכולות, מגבלות וטיפול בנתונים, אוכפות דירוגי גיל ותקני קהילה, והאם הן משתפות נתוני שיחות עם צדדים שלישיים.
יצוין כי למרות שהצווים אינם על תקן פעולות אכיפה כשלעצמם – אי-ציות לבקשות הרשות עלול לגרור השלכות, כשבעבר ממצאי מחקרים שימשו בסיס לתביעות עתידיות.
יצוין החקירה החדשה הזו היא השנייה בגודלה של ה-FTC בתחום הבינה המלאכותית בשנתיים האחרונות, והיא מגיעה לאחר עדכון משמעותי לכללי COPPA, שנכנס לתוקף ביוני האחרון ומחייב הסכמה הורית אקטיבית לפרסום ממוקד לילדים מתחת לגיל 13.











תגובות
(0)