השימוש הארגוני ב-AI זינק ב-91% – ויוצר פער אבטחה קריטי
חוקרי Zscaler: "הזרם העצום של נתונים ארגוניים שעברו ליישומי AI/ML - הפך כלים כמו ChatGPT למאגרי המודיעין התאגידי המרוכזים ביותר בעולם"
השימוש בבינה מלאכותית בשנה החולפת בארגונים חווה גידול של 91%, אולם ארגונים רבים עדיין חסרים מלאי בסיסי של מודלים ותכונות AI מוטמעות. אימוץ זה, שהוא מהיר יותר מהיכולת של ארגונים לבקר ולשלוט בו, יוצר משטח תקיפה המתרחב במהירות בארגונים מכל המגזרים; כך לפי Zscaler.
חוקרי ענקית האבטחה ניתחו 989.3 מיליארד עסקאות בינה מלאכותית ולמידת מכונה, בין ינואר לדצמבר 2025. "יכולות הבינה המלאכותית מתפשטות במהירות ברחבי הארגון", כתבו החוקרים והוסיפו, כי מספר יישומי ה-AI גדל פי ארבעה בשנה החולפת ועומד על יותר מ-3,400, "מה שהגביר את המורכבות והפחית את הנראות המרכזית".
מגזרי הפיננסים והביטוח היו אלה שהטמיעו יותר בינה מלאכותית, וחלקם יחד עומד על 23%. מגזרי הטכנולוגיה והחינוך רשמו את הצמיחה השנתית החדה ביותר בתחום – 202% ו-184%, בהתאמה. בתוך הארגונים, המחלקות שהשתמשו הכי הרבה ב-AI היו הנדסה (48.9%), IT (31.8%) ושיווק (6.9%).
עיקר הפעילות בעולם הבינה המלאכותית הארגונית היה בארה"ב, שהיוותה 38% מהעסקאות, ולאחריה הודו (14%) וקנדה (5%). שירותי OpenAI היו הפופולריים ביותר בשנה החולפת, ולאחריהם קודליום (Codelium) ופרפלקסיטי (Perplexity).
לצד העלייה בשימוש בבינה מלאכותית, האנליסטים של Zscaler מצאו פגיעויות קריטיות בכלל המערכות (100%) ויישומי הבינה המלאכותית שהם בחנו: הם הצליחו לפרוץ ל-90% מהמערכות בתוך פחות מ-90 דקות. משך הזמן החציוני עד שפגם הביא לכישלון קריטי ראשון במערכות מבוססות AI היה רק 16 דקות, אבל חלק מהפגמים הללו הביאו להשבתה או לשיבוש המערכות – בתוך שנייה אחת.
18,033 טרה-בייט של נתוני ארגון עברו בשנה החולפת ליישומי AI/ML, נתון המשקף עלייה של 93% מ-2024. "הזרם העצום הזה הפך כלים כמו ChatGPT למאגרי המודיעין התאגידי המרוכזים ביותר בעולם," נכתב בדו"ח.
הגידול בהטמעת יישומי AI/ML, ציינו החוקרים, הביא ליותר פגיעה בפרטיות. הם מנו 410 מיליון אירועים בהם הייתה הפרה של מדיניות האבטחה בארגון לגבי מניעת אובדן נתונים (DLP), הקשורים ל-ChatGPT בלבד. אלה כללו ניסיונות לשתף מספרי ביטוח לאומי, קוד מקור ורשומות רפואיות. "הממצאים מצביעים שממשל בינה מלאכותית עבר מדיון בדבר מדיניות – לצורך תפעולי מיידי", ציינו החוקרים.
הם צופים כי בינה מלאכותית סוכנית, אוטונומית וחצי-אוטונומית, תבצע אוטומציה הולכת וגוברת של מתקפות סייבר בעתיד הקרוב, במסגרתם, סוכני ה-AI ייקחו אחריות על סיור במערכות הקורבנות, ניצול חולשות ופגמים, ותנועה רוחבית. "המגינים חייבים לפעול תוך הנחה שהמתקפות עלולות להתרחב ולהאיץ את הקצב שלהן, שיהיה במהירות מכונה, לא במהירות אנוש", ציינו.
דיפן דסאי, סגן נשיא לאבטחת סייבר ב-Zscaler, אמר, כי "בינה מלאכותית כבר לא נחשבת לכלי פרודוקטיבי פשוט – אלא ככלי עיקרי להתקפות אוטומטיות במהירות מכונה, הן בשימוש כנופיות פושעי סייבר המחפשים רווחים, והן מצד קבוצות הפועלות בגיבוי מדינות לאום. בעידן הבינה המלאכותית הסוכנית, בתוך דקות הפורצים יכולים לעבור משלב הגילוי של חולשה אל תנועה רוחבית, מה שהופך את ההגנות המסורתיות למיושנות. כדי לנצח במירוץ זה, ארגונים חייבים לפרוס ארכיטקטורת Zero Trust חכמה, שסוגרת את הדרכים האפשריות לתוקפים מכל הסוגים".












תגובות
(0)