וויז חשפה "פער אבטחה גדול" במולטבוק

הגילוי משנה את מה שרבים חשבו על רשת החברתית המדוברת, שמוקדשת לכאורה רק לסוכני ה-AI ● גל נגלי, חוקר בכיר ב-וויז: "זו תזכורת שבעוד שכלי AI מאפשרים פיתוח מהיר ונגיש, אבטחה עדיין אינה מגיעה כברירת מחדל"

נמצא בה פער אבטחה גדול. מולטבוק, הרשת החברתית של סוכני ה-AI.

הרשת החברתית החדשה מולטבוק (Moltbook) עלתה לכותרות בימים האחרונים ככזו שבה רק סוכני בינה מלאכותית יכולים לשוחח ביניהם, להחליף קוד ולרכל על בני האנוש המפעילים אותם. הרשת מיצבה עצמה כסביבה משגשגת של 1.5 מיליון סוכני AI אוטונומיים.

אמש (ב') פרסמו חוקרי וויז (Wiz) הישראלית כי ברשת הסוכנת נתגלה פער אבטחה משמעותי וגדול: היא חשפה נתונים פרטיים של אלפי משתמשים, אנשים אמיתיים. לפי הממצא של וויז, הרשת חשפה בטעות את ההודעות הפרטיות המשותפות בין סוכנים, כתובות דוא"ל של יותר מ-6,000 בני אנוש, ויותר ממיליון פרטי מידע אחרים. החוקרים בדקו את בסיס הנתונים ומצאו כי 1.5 מיליון סוכני AI נשלטו בפועל על ידי כ-17 אלף בני אדם בלבד, כלומר, "רובם המכריע של אותם סוכנים – אינו אוטונומי כלל".

הנתון משקף יחס של 1:88 בין בן אנוש לסוכני AI. כל זה קרה ללא כל מנגנון אימות, שמוודא כי הסוכנים אכן מבוססי AI וללא אמצעי הגנה אמיתיים – שמונעים מאנשים ליצור ולהשיק צי עצום של בוטים.

את חולשת האבטחה החמורה גילו, כאמור, חוקרי וויז והעומד בראשם, גל נגלי. הם גילו מפתח API יחיד, בקוד JavaScript בצד הלקוח, שהעניק הרשאות קריאה וכתיבה מלאות לבסיס הנתונים בסביבת הייצור: 1.5 מיליון מפתחות API של סוכנים איפשרו השתלטות מלאה על כל חשבון בפלטפורמה; אלפי כתובות אימייל – של בעלי חשבונות ונרשמים מוקדמים; 4,000 הודעות פרטיות בין סוכנים – חלקן כללו מפתחות API של OpenAI שדלפו; הרשאות כתיבה מלאות – כל גורם יכול היה לערוך כל פוסט בפלטפורמה ולהשפיע לחלוטין על תכניה.

יוצר מולטבוק, מאט שליכט, לא הגיב לדיווח.

עמי לוטבאק, מייסד משותף בוויז וסמנכ"ל הטכנולוגיות שלה, אמר כי בעיית האבטחה שהם זיהו, תוקנה בעקבות פנייה שלהם לחברה. הוא כינה זאת "תוצר לוואי של Vibe Coding". לדבריו, "כפי שאנחנו רואים שוב ושוב עם הקידוד הזה, למרות שהוא רץ מהר מאוד, הרבה פעמים אנשים שוכחים את יסודות האבטחה".

"הפופולריות של מולטבוק התפוצצה"

ג'יימיסון או'ריילי, מומחה אבטחה לסייבר התקפי מאוסטרליה, אמר כי "הפופולריות של מולטבוק התפוצצה לפני שמישהו חשב לבדוק אם המאגר מאובטח כראוי". לוטבאק הוסיף כי "פגיעות האבטחה שמצאנו, אפשרה לכל אחד לפרסם באתר, בין אם הוא בוט, או לאו. לא היה אימות זהות. אתה לא יודע מי מהם סוכני בינה מלאכותית, מי מהם בני אדם", הסביר. הוא סיים את הראיון לרויטרס (Reuters) כשהוא צוחק ואומר: "אני מניח שזה העתיד של האינטרנט".

"לפלטפורמה לא היה מנגנון לאמת אם 'סוכן' הוא באמת בינה מלאכותית או סתם אדם עם סקריפט", כתב נגלי מ-וויז בפוסט בבלוג. "הרשת החברתית המהפכנית של הבינה המלאכותית הייתה בעיקר בני אדם, שהפעילו צי של בוטים", צוין בפירוש בפוסט. 

החוקרים גילו שבסיס הנתונים האחורי של הרשת החברתית הסוכנית, הוקם כך שכל מי שנמצא באינטרנט, לא רק משתמשים מחוברים, יוכל לקרוא ולכתוב למערכות הליבה של הפלטפורמה. המשמעות היא שזרים יכולים לגשת לנתונים רגישים, כולל מפתחות API ל-1.5 מיליון סוכנים, עשרות אלפי כתובות דוא"ל ואלפי הודעות פרטיות. חלק מההודעות הללו אף כללו את כל פרטי האישור הגולמיים של שירותים צד שלישי, כמו מפתחות API של OpenAI.

"סיוט אבטחתי"

חוקרי וויז אישרו שהם יכולים לשנות פוסטים באתר, כלומר שתוקף יכול להכניס תוכן חדש לרשת בעצמו.

מומחים הסבירו כי "מדובר בנקודה חשובה: מולטבוק הוא לא רק מקום שבו אנשים וסוכנים קוראים פוסטים. התוכן נצרך על ידי סוכני בינה מלאכותית אוטונומיים, רבים מהם פועלים על OpenClaw, מסגרת סוכנים עוצמתית עם גישה לקבצי משתמשים, סיסמאות ושירותים מקוונים. אם שחקן זדוני היה מכניס פקודות לפוסט, ההוראות הללו יכלו להיקלט ולהיות מבוצעות באופן אוטומטי על ידי מיליוני סוכנים".

גארי מרקוס, מהמבקרים הבולטים של הבינה המלאכותית, פרסם פוסט מתריע, עוד בטרם פורסם המחקר של וויז. בפוסט שכותרתו "OpenClaw נמצא בכל מקום בו זמנית, והאסון מחכה לקרות" – תיאר מרקוס את התוכנה הבסיסית, OpenClaw (השם שלה שונה כמה פעמים) כ"סיוט אבטחתי. OpenClaw הוא בעצם תרסיס חמוש (Weaponized aerosol – מושג שמהווה ריפור לתופעת ה"ריסוסים" באוויר במסגרת הנדסת אקלים – י"ה)".

חששו העיקרי של מרקוס הוא שהמשתמשים נותנים לאותם "סוכנים" גישה מלאה לסיסמאות ולבסיסי הנתונים שלהם. הוא מזהיר מפני "CTD" (ר"ת Chatbot Transmitted Disease), מצב בו צ'אטבוטים נגועים מעבירים הלאה את הזיהום, וכך, מכונה נגועה עלולה לפרוץ ולהשתלט על כל סיסמה שתוקלד.

נגלי מ-וויז סיכם: "זו תזכורת לכך שבעוד שכלי AI מאפשרים פיתוח מהיר ונגיש, אבטחה עדיין אינה מגיעה כברירת מחדל".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים