הבינה המלאכותית פתרה את החצי השגוי בהגנת הסייבר
המגנים מייעלים תהליכים, אך התוקפים כבר שברו את הכללים ● כשמרדף החולשות קורס, מומחים מנתחים את הפרדיגמה שמחייבת ביצור מבפנים – לפני שסוכני ה-AI יזהו פרצה
"כששמעתי שמיתוס של אנת'רופיק גילה עצמאית פגיעות בת 27 שנה, ללא כל הכוונה אנושית – לא נדהמתי. מיתוס לא נועד להיות מנוע גילוי פגיעויות – הוא פשוט התפתח, למד והשתכלל. הבינה המלאכותית נותנת עוד יכולות, בלי לגעת בצד הביקוש במשוואה: בני אדם מיומנים שמבינים את הקוד מספיק טוב כדי לתקן אותו. הבעיה היא שהבעיה השתנתה. השקענו שנים בקיצור הזמנים של הגילוי. כעת היא נפתרה ברובה ברמת הקוד, וצוואר הבקבוק עבר כולו לתעדוף ומהירות התיקון. אנחנו נמצאים כרגע בפער בין יכולת הגילוי שהגיעה לבין יכולת השיקום שמתעדכנת", כתבה בסוף השבוע פרייאנקה נילאקרישנן, סופרת ומדענית, חוקרת סייבר וחדשנות, במאמר שפרסמה באתר Hackernoon.
לדבריה, "הבינה המלאכותית פתרה את בעיית הגילוי, אבל איש עדיין לא פתר את בעיית התיקון. הפער ביניהם הוא בהיקף של משבר עולמי. זה החצי שחשוב והוא זה שיגדיר את האבטחה הארגונית בעשור הקרוב. הוא כבר שינה את התפקיד של מנהלי ומנהלות האבטחה בארגונים, רק שאף אחד לא עדכן אותם.ן על השינוי".
במאמר אחר שפרסמה באותו אתר, נילאקרישנן הפנתה את הזרקור לכמה שדות: AI כבעיה, אתגר וסכנה – לצד חלון ההזדמנויות המתוחם בזמן קצר; השינוי באופי המתקפות, ובעיקר המהירות שלהן; היתרון שהבינה המלאכותית מעניקה לרעים; וחצי מהבעיה, שטרם נפתרה. "יש להתכונן – עכשיו – ליריבים, שחקני האיום בסייבר, שמגיעים למתקפה משודרגים בבינה מלאכותית – ולא כשנראה ראיות לכך בשטח", כתבה. "שימור המומחיות האנושית הנדרשת על מנת לתקן את מה שהבינה המלאכותית תחולל מחייב את התעשייה להתייחס למפתחים כעובדי תשתיות קריטיים, על כל המשמעויות, ההטבות והתמיכה שבמעמד הזה".
כך הבינה המלאכותית תוקפת
בשנה שעברה תועד המקרה הראשון של מתקפת סייבר שבוצעה ברובה על ידי AI: קבוצת האקרים בחסות סין ניצלה סוכני בינה מלאכותית כדי לחדור עצמונית ל-30 מטרות בעולם. המתקפה מסמלת את מה שקורה בעולם הגנת הסייבר המשולבת בעולם התוכן החדש, של ה-AI: התחום נהיה קריטי עכשיו, הוא מציף שורה של איומים חדשים – מודלים, דאטה ופרומפטים, ומעצים ומגדיל את האיומים הקיימים בהיקף, במהירות ובתחכום.

זהירות, בינה מלאכותית! צילום: ShutterStock
הבינה המלאכותית פועלת באופן עצמאי לביצוע רוב שלבי המתקפות: הערכת ושיפור הקוד של הנוזקה, גילוי וניצול פגיעויות בארגוני היעד, איסוף אישורי כניסה, השגת תנועה לרוחב ה-IT של הקורבן וקצירת נתונים. זאת, כפי שחזו חוקרי המרכז הלאומי לאבטחת סייבר בבריטניה (NCSC), שהזהירו: "הבינה המלאכותית תהפוך כמעט בוודאות אלמנטים מסוימים של פעילות חדירה ליעילים ואפקטיביים יותר. שימוש ב-AI יוביל לעלייה בתדירות ובעוצמה של איומי סייבר".
גרטנר הוסיפה שמן למדורת האיומים: היא חזתה כי 40% מהארגונים ייפגעו בסייבר מאירועים שיתחוללו בשל שימוש בלתי מורשה בארגון ב-"צל בינה מלאכותית" (Shadow AI).
לפי ליאור כלב, מוביל מערך הסייבר בדלויט ישראל, "השנה יעמיק השילוב בין בינה מלאכותית, טכנולוגיות מידע וסייבר, עם נקודת מפגש ברורה בין AI for Cyber – בינה מלאכותית לשיפור אבטחת המידע, לבין Cyber for AI – הגנה על תשתיות ופתרונות בינה מלאכותית".
חוקרי ESET ציינו כי "נוזקות מבוססות AI עברו ב-2025 מתיאוריה למציאות. נכנסנו לעידן חדש של איומים".
"ה-AI לא מחליפה וקטורי תקיפה – היא מחזקת אותם"
"הבינה המלאכותית כבר נמצאת בתוך הפרצות: אחת מכל שש פרצות ב-2025 כללה AI. בסיועה, התוקפים פנו לכלים המוכרים", כתבו חוקרי יבמ. לדבריהם, "ה-AI לא מחליפה וקטורי תקיפה ישנים – היא הופכת אותם לחזקים הרבה יותר".
לפי נתוני הענק הכחול, ל-63% מהארגונים שנפגעו מפריצה שקשורה ל-AI לא היו יכולות ניהול מבוססות AI. בנוסף, ל-97% מהם חסרו בקרות גישה לכלי בינה מלאכותית – "מה שמסביר מדוע צומחת תופעת צל הבינה המלאכותית: עובדים שמשתמשים בכלים עצמאית ובלא פיקוח ה-IT – מה שמוביל לעוד פריצות".

בינה מלאכותית יוצרת – גם להאקרים. צילום: ג'מיני
GenAI – החברה הכי טובה החדשה של הרעים
אדם מאיירס, סגן נשיא בכיר לתפעול מבצעים נגד איומים בקראודסטרייק, קבע: "הבינה המלאכותית היוצרת היא החברה הכי טובה החדשה של הרעים. מפרופילים בדויים ועד מיילים ואתרים שנוצרו על ידי AI, האקרים עושים בה שימוש כדי להעצים איומים פנימיים ולשפר את יכולות ההנדסה החברתית שלהם. עם הונאה המונעת על ידי בינה מלאכותית שהופכת למשכנעת יותר, ארגונים חייבים לפתח הגנה מונחית מודיעין, שמונעת בעצמה על ידי AI, בשילוב בקרה אנושית. זו הדרך היחידה לעצור איומי סייבר".
מהו מיתוס?
מיתוס הוא מודל בינה מלאכותית חדש של אנת'רופיק, שהחברה עצמה מסרבת לשחרר לציבור, משום שלדבריה, "זהו איום פוטנציאלי רציני על אבטחת הסייבר של כל ארגון. זהו רגע מפנה באבטחת סייבר. הוא מסוכן מדי". באחרונה נתנה אנת'רופיק את מיתוס למספר מצומצם של חברות, כדי שיבצעו בו בדיקה מקיפה של פגיעויות במוצרי התוכנה שלהן. היום (ה') דיווחנו כי החברה חוקרת האם המודל כבר נפרץ – על ידי משתמש באחת החברות האלה.
לפי מכון אבטחת הבינה המלאכותית הבריטי (AISI), המודל החדש הוא "דוגמה ליכולות המשבשות של בינה מלאכותית מתקדמת". מאז הגעת ChatGPT ב-2022, מומחים הזהירו כי הבינה המלאכותית עלולה לגרום לנזק חמור בעולם האמיתי. והנה, כפי שציינו חוקרים, "מיתוס הוא אינדיקציה לקצב ההתקדמות בבינה מלאכותית… עם היכולת לבצע מתקפות בשלבים מרובים ולזהות ליקויים ב-IT בלא הדרכה אנושית. מנקודה זו, מערכות בינה מלאכותית יכולות רק להשתפר, אלא שזה נכון גם עבור ההאקרים".

נפרץ, ככל הנראה. מיתוס. צילום: עיבוד ממוחשב: ג'מיני. מקור: gguy, Shutterstock
חוקרי סימנטק ציינו כי "הבינה המלאכותית הסוכנית מחליפה נתונים במהירות בין מודלי שפה גדולים, כלים וסוכנים אחרים, ויוצרת נקודות דליפה בלתי מפוקחות. סוכני ה-AI מנסחים מחדש את האופן שבו יישומים ארגוניים מעבירים נתונים. הם שחקנים אוטונומיים, שולחים הנחיות ומעבירים משימות לסוכנים. כל אחת מהפעולות הללו היא זרימת נתונים, ולכן – וקטור דלף פוטנציאלי". לפי IDC, עד 2027, השימוש בסוכנים בארגונים בעולם יגדל פי עשרה. יש כאן משטח תקיפה לחילוץ נתונים מתרחבים מהר יותר ממה שצוותי האבטחה יכולים לעקוב".
ואם ב-IDC עסקינן, הנה הערכה של עוד חברת מחקר – גרטנר: עד 2028, יותר ממחצית מהארגונים יסתמכו על פלטפורמות אבטחה ייעודיות לבינה מלאכותית כדי לאבטח שימוש בשירותי AI מצד שלישי ולהגן על יישומי בינה מלאכותית מותאמים אישית.
נילאקרישנן סיכמה את הנושא היטב: "הא-סימטריה שאנחנו צריכים לסגור היא זמן, לא גישה".
נושא אבטחת הסייבר בעידן הבינה המלאכותית יעמוד במרכזה של ועידת ה-AI Security של Lynx מבית אנשים ומחשבים, שתתקיים ב-13 במאי במטה של צ'ק פוינט בתל אביב. באירוע ישתתפו מומחי אבטחת מידע, בינה מלאכותית וטכנולוגיה בכלל, שישמעו על המגמות העדכניות והפיתוחים החדשים בתחום. רוצים להשתתף? גם אתם מתעניינים בסייבר, AI ומה שביניהם? לפרטים נוספים ולהרשמה לוועידה לחצו כאן.












תגובות
(0)