מדוע הבינה המלאכותית בסייבר היא כמו כלב?

"AI, כמו כלב, היא ידיד נאמן, זמין, לומד וניתן לאילוף - אבל הרעים מנצלים את יכולת האימון שלה ככלי תקיפה", אמר שאול פילוס, מנכ"ל סייברקום ● סיכום שנה שבה ההאקרים האיצו את החימוש שלהם בכלי AI

כלב מלאכותי.

לפני עשור, שני בכירים בענף ומייסדי חברות – ניר צוק מפאלו אלטו ולארי אליסון מאורקל – היו הראשונים, והיחידים, שדיברו על הבינה המלאכותית כחלק מרכזי באבטחת הסייבר. בחלוף עשור, ה-AI הגדירה מחדש את נוף האיומים, והגבירה ביתר שאת את מרוץ החימוש בין התוקפים למגנים. ב-2025 ראינו התחלה של מתקפות סייבר המונעות על ידי AI, שסיפקה לרעים טכנולוגיה שהיא נשק התקפי חזק ביותר.

הבינה המלאכותית פועלת באופן עצמאי לביצוע רוב שלבי המתקפות: הערכת ושיפור הקוד של הנוזקה, גילוי וניצול פגיעויות בארגוני היעד, איסוף אישורי כניסה, השגת תנועה לרוחב ה-IT של הקורבן וקצירת נתונים.

"אנחנו לא יכולים להרשות לעצמנו להוריד את העין מהמטרה", אמר דיוויד סנצ'ו, חוקר איומים בכיר בטרנד מיקרו. סנצ'ו ציטט את המרכז הלאומי לאבטחת סייבר בבריטניה (NCSC), שהזהיר: "הבינה המלאכותית תהפוך כמעט בוודאות אלמנטים מסוימים של פעילות חדירה ליעילים ואפקטיביים יותר. שימוש ב-AI יוביל לעלייה בתדירות ובעוצמה של איומי סייבר".

"למזלנו", ציין, "חדשנות בבינה מלאכותית פועלת לשני הכיוונים: בעוד שהרעים בהחלט מנצלים את הטכנולוגיה במתקפות, גם צוותי האבטחה יכולים. מרוץ החימוש של ה-AI רק התחיל".

ניקש ארורה, מנכ"ל פאלו אלטו.

ניקש ארורה, מנכ"ל פאלו אלטו. צילום: ShutterStock

גרטנר הוסיפה שמן למדורת האיומים כשחזתה באחרונה כי 40% מהארגונים ייפגעו בסייבר מאירועים שיתחוללו בשל שימוש בלתי מורשה בארגון ב-"צל בינה מלאכותית" (Shadow AI). כך חושב גם ניקש ארורה, מנכ"ל פאלו אלטו, שרכשה השנה חברות במיליארדים, לרבות את סייברארק הישראלית. הרכישה שלה בוצעה תמורת 25 מיליארד דולר – הסכום השני בגודלו בתולדות ההיי-טק הישראלי, כשלפניו רק הסכום של רכישה אחרת שבוצעה השנה – זו של גוגל את וויז ב-32 מיליארד. לדברי ארורה, "מחזור הבינה המלאכותית מתקדם במהירות. אין יום שעובר בלי הכרזות משמעותיות על השקעות במרכזי נתונים ובתשתיות AI".

"שנת מפנה באיומי הסייבר"

מאי גרין, מנהל חטיבת הסייבר ביזמקו פרו.

מאי גרין, מנהל חטיבת הסייבר ביזמקו פרו. צילום: יזמקו

לפי מאי גרין, מנהל חטיבת הסייבר ביזמקו פרו, "2025 סימנה נקודת מפנה באיומי הסייבר. ארגונים בישראל ובחו"ל התמודדו עם מתקפות מתוחכמות ודרישות הגנה גוברות באוטומציה ו-AI. תוקפים אימצו כלי בינה מלאכותית לאוטומציה מלאה – מה שקיצר את זמני החדירה מימים לדקות. הופיעו סוכני AI שמנהלים עצמאית איסוף מודיעין, פריצה ואף משא ומתן לתביעת דמי כופר. מנגד, ארגונים החלו להשתמש בבינה מלאכותית לזיהוי איומים ולסגירת פערים בזמן אמת, כמענה למתקפות במהירות של מכונה".

פה קבור הכלב?

שאול פילוס, מנכ"ל סייברקום, עם כלבו, לואי.

שאול פילוס, מנכ"ל סייברקום, עם כלבו, לואי. צילום: יח"צ

גם לדברי שאול פילוס, מנכ"ל סייברקום (CYBERcom) מקבוצת אמת, 2025 היוותה נקודת מפנה משמעותית באבטחה. "האיומים בסייבר גברו, הפכו למהירים ואוטונומיים יותר, ובעיקר לפחות גלויים לעין", ציין. "בשנה החולפת חלה האצה דרמטית בשימוש ב-AI כשכבת תקיפה של ממש, ולא רק ככלי עזר. תוקפים מנצלים את הבינה המלאכותית ליצירת מתקפות מדויקות, דינמיות ומותאמות בזמן אמת – מה שמקצר את זמני החדירה ומטשטש דפוסי תקיפה מוכרים. הפער בין ארגונים שאימצו הגנה אוטונומית לאלה עם תהליכים ידניים הלך והתרחב השנה. המציאות ברורה: אין דרך להתמודד עם AI התקפי ללא AI הגנתי".

"אני משתמש באנלוגיית הכלב", אמר פילוס. "כמו כלב, גם הבינה המלאכותית מייצרת דימוי של ידיד נאמן, זמין תמיד, לומד מהר וניתן לאילוף כמעט לכל מטרה. אבל כאן טמונה הטעות המסוכנת: בעולם הסייבר, אותה יכולת אימון מאפשרת לרעים לנצל אותה ככלי תקיפה – לאתר מטרות, להתחזות לדמויות אמינות, לנצל חולשות ולתקוף ברציפות בלא להתעייף כבן אנוש. הבעיה המרכזית היא חוסר הנראות: מתקפות AI הן שקטות, בלתי מוחשיות ולעתים הן לא מורגשות עד שהנזק כבר נגרם. ה-AI אינה טובה או רעה – היא עוצמתית".

מה בישראל?

מחקר של סיילספורס מצא שהשנה חלה עלייה חדה בתחושת הדחיפות. כלל מנהלי אבטחת המידע בישראל מאמינים שסוכני AI יכולים לסייע בהתמודדות עם איומים, ו-84% מהם סבורים ששיטות האבטחה הקיימות זקוקות לעדכון יסודי. יותר ממחצית מהמנהלים חוששים שהתשתיות והנתונים שלהם לא ערוכים להטמעה מלאה של AI, ו-80% מהארגונים יגדילו את תקציבי האבטחה שלהם. 66% מהם ציינו שלקוחות עדיין מהססים לאמץ שירותים מבוססי בינה מלאכותית, בשל החשש מאיומים.

ליאור כלב, מוביל מערך הסייבר בדלויט ישראל.

ליאור כלב, מוביל מערך הסייבר בדלויט ישראל. צילום: יח"צ

ליאור כלב, מוביל מערך הסייבר בדלויט ישראל, חוזה כי "בשנה הקרובה יעמיק השילוב בין בינה מלאכותית, טכנולוגיות מידע וסייבר, עם נקודת מפגש ברורה בין AI for Cyber – בינה מלאכותית לשיפור אבטחת המידע, לבין Cyber for AI – הגנה על תשתיות ופתרונות AI. פונקציות כמו ניהול זהויות, זיהוי ותגובה לאיומים וניהול סיכונים יתייעלו באמצעות סוכני בינה מלאכותית ייעודיים".

ה-AI כבר נמצאת בתוך הפרצות

ציטוט מעניין שיבמ שחררה לא מכבר גורס ש-"הבינה המלאכותית כבר נמצאת בתוך הפרצות". על פי הענק הכחול, "אחת מכל שש פרצות השנה כללה AI. בסיועה, התוקפים פנו לכלים המוכרים, ובראשם מיילים של פישינג. מתקפות דיוג נותרו נקודת הכניסה הדומיננטית של התוקפים לקורבנותיהם. ההבדל הוא בהיקף ובהיתכנות בפועל: ה-AI לא מחליפה וקטורי תקיפה ישנים – היא הופכת אותם לחזקים הרבה יותר".

הנה עוד כמה נתונים שהענק הכחול פרסם בחודשים האחרונים: ל-63% מהארגונים שנפגעו מפריצה שקשורה ל-AI לא היו יכולות ניהול מבוססות AI; ל-97% מהם חסרו בקרות גישה לכלי בינה מלאכותית, "מה שמסביר מדוע צומחת תופעת צל הבינה המלאכותית – עובדים המשתמשים בכלים עצמאית ובלא פיקוח ה-IT, וזה מוביל לעוד פריצות".

אדם מאיירס, סגן נשיא בכיר לתפעול מבצעים נגד איומים בקראודסטרייק.

אדם מאיירס, סגן נשיא בכיר לתפעול מבצעים נגד איומים בקראודסטרייק. צילום: יח"צ

סיכם אדם מאיירס, סגן נשיא בכיר לתפעול מבצעים נגד איומים בקראודסטרייק: "הבינה המלאכותית היוצרת היא החבר הכי טוב החדש של הרעים. מפרופילים בדויים ועד מיילים ואתרים שנוצרו על ידי AI, יריבים עושים בה שימוש כדי להעצים איומים פנימיים ולשפר את יכולות ההנדסה החברתית שלהם. עם הונאה המונעת על ידי בינה מלאכותית שהופכת למשכנעת יותר, ארגונים חייבים לפתח הגנה מונחית מודיעין, שמונעת בעצמה על ידי AI, בשילוב בקרה אנושית. זו הדרך היחידה לעצור איומי סייבר".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים