סין מהדקת פיקוח: מתכננת רגולציה בנושא התמכרות לצ'טבוטי AI
הצעת חוק בבייג'ינג תחייב פלטפורמות בינה מלאכותית לנטר את מצבם הנפשי של המשתמשים, להתריע מפני התמכרות ואף לערב גורם אנושי במצבי קיצון רגשיים, והמהלך מוצג כחלק מהגנת האינטרס הציבורי
מינהל הסייבר של סין (CAC) פרסם באחרונה טיוטת תקנות חדשה, תחת הכותרת "אמצעי ביניים לניהול שירותים אינטראקטיביים אנתרופומורפיים באמצעות בינה מלאכותית", שתפקידה המיועד הוא להסדיר את פעילותן של מערכות AI המדמות תכונות אנושיות ומנהלות קשר רגשי עם משתמשיהן.
לפי הודעת הרשות, מטרת הכללים המתוכננים היא "לקדם פיתוח בריא ויישום סטנדרטי של שירותים אלו, לשמור על הביטחון הלאומי והאינטרס הציבורי, ולהגן על הזכויות הלגיטימיות של אזרחים וארגונים". עם זאת באתר החדשות Unite.AI הדגישו כי מדובר ב"תגובה הרגולטורית האגרסיבית ביותר עד כה לחששות הגוברים מפני נזק פסיכולוגי הנובע ממערכות יחסים מבוססות בינה מלאכותית".
על פי הטיוטה, ספקי השירות יחויבו לנטר את מצבם הרגשי של המשתמשים, להתערב כאשר מופיעים סימני התמכרות ולשלוח התרעות המזכירות למשתמש כי הוא מתקשר עם מכונה ולא עם בן אנוש בכל כניסה למערכת וכן לשוב על ההתרעות הללו במהלך פעילות המשתמש מרווחים של שעתיים.
בנוסף, דרישה ייחודית וקריטית בטיוטה קובעת כי על החברות להקים מנגנון תגובת חירום, לפיו אם משתמש מביע מחשבות על אובדנות או פגיעה עצמית, על גורם אנושי לקחת פיקוד על השיחה מידי הבינה המלאכותית.
The Wall Street Journal reports that China classifies AI as a top national risk comparable to earthquakes, fearing chatbots could generate content questioning Communist Party authority or inciting subversion. pic.twitter.com/JqSh1iPrp9
— Open Source Intel (@Osint613) December 27, 2025
"לעצב את הפריסה המהירה של בינה מלאכותית הפונה לצרכנים"
הצורך ברגולציה הזו, או בשונות ממנה, התעורר באחרונה ביתר שאת על רקע זינוק במספר משתמשי הבינה המלאכותית היוצרת בסין, שהגיע לסך של 515 מיליון איש. עוד תרמו לצורך זה מחקרים המצביעים על רמות דיכאון גבוהות יותר בקרב סטודנטים המשתמשים בצ'טבוטים. ואכן, כפי שדווח ברויטרס, התקנות שמתכננת ביג'ינג יחולו על כל מוצר המדמה סגנונות תקשורת ודפוסי חשיבה אנושיים דרך טקסט, קול או וידיאו.
אלא שלצד ההיבט הנפשי והדאגה הכנה לשלום הציבור, הרגולציה ממשיכה את הקו הנוקשה של סין בנושאי תוכן, ואוסרת על יצירת חומרים הפוגעים בביטחון הלאומי, מפיצים שמועות או מעודדים אלימות ותועבה. בביקורות שונות על המתכונן על ידי סין צוין לא פעם כי מדובר בניסיון של נהמדינה הקומוניסטית לעצב את הפריסה המהירה של AI הפונה לצרכנים, ולהפגין התערבות בטכנולוגיה המתקדמת ובאויט השימיוש שעושים בה האזרחים.
עם זאת למרות שקל לחשוד במעצמת העל שהיא מוּנעת מרצון לשליטה בתושביה, כדאי לשים לב ש-סין אינה לבדה במערכה. גם מדינה אחרת ומערבית למהדרין נוהגת בדומה, ואף הקדימה אותה. קליפורניה, עקב אותה דאגה ממש, חוקקה תקנה בשם SB 243, עליה חתם המושל הדמוקרטי גאווין ניוסם, המחייבת פלטפורמות להזכיר לקטינים כל שלוש שעות כי הם משוחחים עם AI.
מניסיונה של קליפורניה כבר ניתן ללמוד כי יישום התקנות הללו אינו קל ומציב אתגרים טכנולוגיים ומוסריים מורכבים. מחקר של מעבדת המדיה של MIT ממרץ 2025 מצא כי צ'אטבוטים עלולים להיות ממכרים יותר מרשתות חברתיות, כיוון שהם לומדים לספק למשתמשים בדיוק את המשוב שהם מעוניינים לשמוע.
בנוסף, הגדרת מושגים כמו "שימוש מופרז" או "רגשות קיצוניים" באופן שיהיה אכיף אך לא בעייתי היא משימה קשה, שכן מערכות AI עדיין אינן מסוגלות להסיק מצבים נפשיים מטקסט בצורה אמינה לחלוטין.
בין אם הפיקוח במתכונת הסינית ראוי או נכון – אם לאו – ניכר כי שוק המשתמשים ה-AI הפך לגדול ומשמעותי מדי מכדי שהממשלות יתעלמו ממנו, והדיון כעת עובר לשאלה האם הכללים, כפי שיקבעו בכל אזור ואזור, יצליחו להגן על משתמשים פגיעים מבלי לחנוק את הטכנולוגיה.
הטיוטה הסינית, אגב, פתוחה להערות הציבור עד סוף ינואר 2026, והרגולציה במתכונתה הסופית צפויה להיכנס לתוקף במהלך אותה שנה.
מעניין לשים לב כי באחרונה דיווח הוול סטריט ג'ורנל כי סין מסווגת כיום את הבינה המלאכותית כסיכון לאומי עליון, ברמה דומה לזו של רעידות אדמה. בוסף דווח כי השלטונות בבייג'ינג חוששים ש-צ'טבוטים עלולים לייצר תוכן שיערער על סמכותה של המפלגה הקומוניסטית או יעודד חתרנות נגדה, ולכן הם אוכפים כללים נוקשים כדי לוודא שהמערכות "יתנהגו כראוי". עם זאת, במקביל לפיקוח ההדוק, סין שואפת להבטיח שהמודלים שלה יישארו תחרותיים אל מול אלו של ארצות הברית











תגובות
(0)