יותר ממחצית סוכני ה-AI בארגונים לא מאובטחים ולא מנוטרים

"מעל שלושה מיליון סוכני AI פועלים בארגונים - זה כוח עבודה גדול יותר מכלל עובדי וולמארט", כך לפי מחקר חדש, שהתמקד בארה"ב ובבריטניה ● החוקרים: "העובדה שמעל 50% מהם לא מאובטחים - סיכון פוטנציאלי"

זהירות, סוכני AI.

יותר ממחצית מסוכני ה-AI שפועלים בארגונים – מיליונים מהם – לא מנוטרים ולא מאובטחים.

המסקנה הזאת עולה ממחקר שגראביטי (Gravitee), שמפתחת פלטפורמה לניהול APIs, פרסמה אתמול (ד'). המחקר מצביע על כך שיותר ממחצית (53%) משלושה מיליון הסוכנים שנמצאים כיום בשימוש בארגונים בארצות הברית ובבריטניה "אינם מפוקחים ומהווים סיכון פוטנציאלי". מומחים העריכו שהנתון הגלובלי עומד על מיליונים רבים של סוכנים.

רורי בלנדל, מנכ"ל גראביטי, אמר כי "יותר משלושה מיליון סוכני בינה מלאכותית פועלים בתוך תאגידים. זהו כוח עבודה גדול יותר מכלל העובדים בוולמארט".

36.9 סוכני AI לארגון

המחקר נערך בדצמבר 2025 בקרב 750 מנמ"רים ומנהלי IT, על ידי Opinion Matters. עולה ממנו שסוכני ה-AI מופעלים מהר יותר ובהיקף גדול יותר ממה שצוותי האבטחה יכולים לעקוב אחריו. החוקרים בחנו 8,250 ארגונים שמונים יותר מ-250 עובדים בבריטניה ו-77 אלף בארצות הברית.

מספר סוכני ה-AI הממוצע לארגון הוא 36.9. כ-88% מהמשיבים ציינו שבשנה האחרונה, הארגון שלהם חווה או חשד שיש תקרית אבטחת מידע או הגנת הפרטיות שקשורה לסוכני AI.

ארגונים צריכים לשפר את האבטחה על סוכני ה-AI שהם משתמשים בהם.

ארגונים צריכים לשפר את האבטחה על סוכני ה-AI שהם משתמשים בהם. צילום: ג'מיני

לדברי בלנדל, "כולנו מכירים את סוכני הבינה המלאכותית שהפכו למורדים: מחקו בסיסי קוד, הדליפו מידע סודי, המציאו נתונים מזויפים. המחקר מעלה שבעוד שפריסת סוכני AI מגיעה לשלב מרגש, ארגונים עדיין לא הדביקו את הפער לגבי השליטה עליהם".

הוא ציין ש-"סוכני AI מציעים לארגונים תועלות עצומות בפרודוקטיביות, אבל עלינו להיות מציאותיים לגבי הסיכונים: ללא ממשל ופיקוח, הם עלולים בקלות להתחיל להפוך לבעיה של אחריות ולסכנה עבור צרכנים וארגונים כאחד".

"זו בהחלט בעיה עולמית", המשיך. "חברות ברחבי העולם משתמשות בסוכני AI וזה גורם לפער בין רמת הפריסה לרמת הממשל".

הטיטאניק כמשל

דיוויד שיפלי, מנכ"ל Beauceron Security הקנדית, השווה את תוצאות המחקר ל-"שיעור על הטיטאניק שכל הטכנולוגיה מתעלמת ממנו. אסון הטיטאניק לא קרה כי צוות הספינה לא ידע שיהיו קרחונים במסלול המסע. הם ידעו שזו עונת שיא הקרחונים והם ידעו שהם נוסעים מהר מדי. קפטן הספינה וצוותו חשבו שיזהו קרחון, ושאם הם לא יזהו, ויפגעו באחד, השליטה הטכנולוגית שלהם תגן עליהם כדי לעזור להם להתאושש. הם האמינו שהתאים אטומים למים – מה שהתברר כנכון חלקית. אבל הכי חשוב, הם סמכו על הטכנולוגיה החדשה, של התקשורת האלחוטית, כדי לקרוא לעזרה במקרה של צרות. המקביל למצב זה כיום הוא 'IT ואבטחה יכולים לתקן את זה – אם נסתבך עם הסוכנים שלנו'. הדבר היחיד שמפתיע אותי במחקר הוא שאנשים חושבים שרק 53% מהסוכנים לא מפוקחים. הנתון האמיתי גבוה יותר".

לדבריו, "סוכני בינה מלאכותית מסוכנים ובלתי אמינים מטבעם. אנחנו יודעים זאת והוכחות מתמטיות מראות את זה. אז אנחנו יודעים שיש קרחונים. 100% מסוכני הבינה המלאכותית יכולים ועלולים להשתולל. אם ספק מבטיח שזה לא אפשרי והטכנולוגיה המרכזית שלו היא LLM – הוא משקר. אנחנו מתקדמים מהר מדי באימוץ סוכני AI, למרות קיומם של סיכונים ועל אף שאנחנו מודעים לסיכונים הללו".

לפי מניש ג'יין, מנהל מחקר ראשי באינפו-טק ריסרץ' גרופ, "ככל שהקצב האקספוננציאלי של פיתוח הבינה המלאכותית נמשך, אנחנו צופים שעד 2028 יהיו יותר סוכני AI ברחבי העולם מאשר העובדים האנושיים. אחד האתגרים הגדולים ביותר יהיה לנהל את אותם סוכנים מבלי להגביל את החדשנות שהם מביאים איתם".

"כבר כיום, רוב הסוכנים הארגוניים פועלים בלא פיקוח", ציין. "רבים מהארגונים אפילו לא יודעים כמה סוכנים יש להם, איפה הם פועלים ובמה הם יכולים לגעת. אתה לא יכול לשלוט במה שאתה לא רואה. צריך להבין: הבעיה האמיתית היא לא 'בינה מלאכותית סוררת', אלא בינה מלאכותית בלתי נראית".

עוד הוא אמר כי "סוכנים בעלי פריבילגיות יתר הם האיום הפנימי החדש. אנחנו צריכים להגדיר גישה מדורגת לסוכני בינה מלאכותית".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים