מחקר: ההאקרים אוהבים במיוחד מודלי AI ולימוד מכונה
כך מגלה מחקר מקיף של ג'ייפרוג ● החוקרים: "מודלים של AI ו-ML הפכו לווקטור תקיפה מועדף על תוקפים" ● עוד הם מצאו ששימוש נרחב בבינה מלאכותית בשרשרת אספקת התוכנה מביא לגידול באיומי סייבר
חל גידול בהיקף איומי אבטחה חמורים שנובעים מהשימוש הנרחב ב-AI בשרשרת אספקת התוכנה, לצד סיכוני DevOps חדשים – כך עולה ממחקר חדש של ג'ייפרוג הישראלית. כמו כן, המחקר מעלה שפיתוח והפצה של מודלי בינה מלאכותית ולימוד מכונה הפכו לחביבים על ההאקרים.
דו"ח שהנפיקה החברה חושף רביעיית פרצות אבטחה, דירוגי CVE (חולשות) שגויים וניהול כושל של מודלים מבוססי למידת מכונה. כל אלה, ציינו החוקרים, "מאיימים על האמון בתוכנות חדשות". המחקר התבסס על תובנות שהתקבלו מיותר מ-1,400 אנשי פיתוח, אבטחה ותפעול מארצות הברית, בריטניה, צרפת, גרמניה, הודו וישראל, כמו גם מנתוני שימוש במוצרי ג'ייפרוג בקרב יותר מ-7,000 לקוחות, עם ניתוחי CVE.
ארבעת איומי האבטחה המשפיעים ביותר על אמינות ובטיחות התהליכים בשרשרת אספקת התוכנה כוללים: חולשות (CVEs), חבילות זדוניות, חשיפת סודות והגדרות אבטחה שגויות או טעויות אנוש. צוות מחקר האבטחה של ג'ייפרוג זיהה 25,229 סודות או טוקנים חשופים במאגרים ציבוריים – נתון שמשקף זינוק של 64% בשנה. לדבריהם, "הסביבה המורכבת והמתפתחת של איומי אבטחת התוכנה מקשה על שמירת אבטחה אחידה בשרשרת האספקה".
זינוק של פי 6.5 בהיקף מודלי ה-AI וה-ML הזדוניים
המחקר עוסק גם במודלי הבינה המלאכותית ולימוד המכונה, שמספרם הולך ועולה – מה שעל פי הממצאים הופך אותם לאמצעי תקיפה מרכזי: ב-2024 נוספו יותר ממיליון מודלים חדשים ומערכי נתונים ל-Hugging Face, וחל זינוק של פי 6.5 בהיקף המודלים הזדוניים. הנתון, הסבירו החוקרים, "מעיד שמודלים של AI ו-ML הפכו לווקטור תקיפה מועדף על תוקפים".
לפי המחקר, ניהול ידני של מודלי לימוד מכונה מגביר את הסיכון: רוב גורף של החברות, 94% מהן, משתמשות ברשימות מאושרות לניהול השימוש במודלי ML, אולם יותר משליש (37%) מהן נסמכות על מאמצים ידניים לאצירה ולתחזוקה של רשימות המודלים המאושרים. "התלות המוגזמת באימות ידני יוצרת אי ודאות לגבי הדיוק והעקביות של אבטחת מודלי לימוד מכונה", ציינו החוקרים.
עוד הם הסבירו שחוסר בסריקות אבטחה מותיר ארגונים חשופים: רק 43% מאנשי ה-IT דיווחו שהארגון שלהם מבצע סריקות אבטחה – הן ברמת הקוד והן ברמת הבינארי. הנתון משקף ירידה משמעותית מהשנה שעברה, אז הוא עמד על 56%. "עובדה זו מדגישה את הבעיות הקיימות בזיהוי ונטרול סיכוני אבטחת תוכנה בשלבים מוקדמים", כתבו אנשי ג'ייפרוג.
נתון נוסף מצביע על עלייה במספר החולשות הקריטיות והדירוגים השגויים. כך, אשתקד דווחו יותר מ-33 אלף CVEs חדשים – עלייה של 27% בהשוואה ל-2023, וקצב צמיחה גבוה מהעלייה במספר חבילות התוכנה החדשות (24.5%). "גידול זה מגביר את העומס על מפתחים וצוותי אבטחה, ובמקרים מסוימים אף מעכב אימוץ ויישום חדשנות", ציינו החוקרים. הם מצאו שרק 12% מה-CVEs שקיבלו דירוג "קריטי" – בעלי ציון חומרה 9 עד 10 – מצדיקים את הדירוג הזה, כי ניתן לנצלם בפועל. "דירוגים מנופחים אלה גורמים להתרעות שווא ולתופעת 'עייפות חולשות' בקרב מפתחים", נכתב בדו"ח.
"גופי דירוג CVE נוטים ליצור בהלה מיותרת בתעשייה"
לדברי יואב לנדמן, מייסד-שותף וסמנכ"ל הטכנולוגיה בג'ייפרוג, "בעוד שארגונים רבים מיהרו לאמץ מודלים פתוחים של למידת מכונה לטובת אימוץ מהיר יותר של חדשנות, יותר משליש מהם עדיין נסמכים על תהליכים ידניים לניהול הגישה שלהם למודלים מאושרים ובטוחים. זה עלול לגרום להחמצת איומים פוטנציאלים באימוץ מודלים. ארגונים שרוצים להצליח בעידן ה-AI חייבים לייעל את הכלים ותהליכי העבודה שלהם, באמצעות פתרונות אוטומטיים מותאמים ל-AI, שיבטיחו גמישות תוך אבטחה מרבית".
"זיהינו דפוס ברור, שבו גופי דירוג CVE נוטים להפריז בציונים וליצור בהלה מיותרת בתעשייה – מה שגורם למפתחים למהר לטפל בבעיות שלא בהכרח מסכנות את הארגון", אמר שחר מנשה, סמנכ"ל מחקר אבטחה בג'ייפרוג. "כאשר צוותי DevSecOps נדרשים לטפל בחולשות שאינן מהוות איום ממשי, הם מאבדים זמן ומשאבים יקרים – מה שמשבש את שגרת עבודתם, ועלול לגרום לשחיקה ואף לטעויות יקרות".











תגובות
(0)