"AI מחזירה לחיים טעויות סייבר ישנות"

זאת בעקבות הלחץ והמהירות באימוץ יכולות של בינה מלאכותית בסביבות ארגוניות, שמלווה לעיתים קרובות בהזנחת בקרות אבטחה בסיסיות

יורגן קוצ'ר, סגן נשיא במנדיאנט.

"הלחץ והמהירות באימוץ יכולות של בינה מלאכותית בסביבות ארגוניות לא רק מביא ליצירה של פגיעויות אבטחה חדשות, אלא גם מחזיר לחיים כישלונות וטעויות אבטחה ישנים", כך אמר יורגן קוצ'ר, סגן נשיא מנדיאנט מבית גוגל קלאוד.

בשיחה עם עיתונאים טכנולוגיים בשבוע שעבר, אמר קוצ'ר, כי "פריסת בינה מלאכותית בארגונים מלווה לעיתים קרובות בהזנחת בקרות אבטחה בסיסיות".

"הרבה מהבעיות ששגינו לחשוב שהן חדשות, התגלו כבעיות ישנות שהופיעו שוב," אמר קוצ'ר, "ראינו ארגונים שמאוד מודאגים מאיומי בינה מלאכותית חדשים כמו הרעלת מודלי שפה גדולים, אבל הם שוכחים לבצע בקרות אבטחה בסיסיות".

קוצ'ר אמר ש"הצוות האדום" של מנדיאנט "חשף כשלי אבטחה אמתיים. הם נגרמו במהלך תרגולים של הדמייה של התקפות בעולם האמיתי: הבודקים אימצו טקטיקות של יריבים אמיתיים, כי לבדוק את ההגנות של ארגונים".

"במהלך המפגשים והעבודה יחד עם 'צוות אדום', הייתי עד לסביבות מבוססות בינה מלאכותית. בהן, התוקף היו יכולים לשנות סיווג של נתונים, מה שמאפשר לו לעקוף הגנות כמו פתרונות הגנה מפני דלף ואובדן נתונים, DLP".

יתרה מזאת, אמר קוצ'ר, "הופתעתי לגלות אפילו טעויות פשוטות. כך לדוגמה, במהלך עבודתנו לחיזוק ההגנה במוסד פיננסי, ראינו תעבורה של תקשורת לא מוצפנת בין הבינה המלאכותית לדפדפן".

הוא הוסיף, כי "בכמה מקרים, חברי הצוות האדום הצליחו להשיג גישה ראשונית על בסיס הונאה, או בהסתמך על הנדסה חברתית. אז ההאקרים נעזרו בבינה המלאכותית לביצוע פעולות המשך, כולל חילוץ נתונים ושינויים במדיניות".

"ברגע שאנחנו בפנים", ציין הבכיר במנדיאנט, "הבינה המלאכותית עושה את השאר, כולל גניבת נתונים. אני מדבר על פריסת בינה מלאכותית מורשית, לא על מקרים של 'צל AI', בהם העובדים פרסו תהליכי עבודה של בינה מלאכותית בלא פיקוח של החברה".

"ארגונים צריכים לבנות תהליכי ממשל על אבטחת בינה מלאכותית", אמר, "ועליהם לעשות זאת בהקדם. הרבה יותר פשוט וקל ליצור מדיניות שכזו ואז לאכוף אותה – מאשר לטפל בנזקי השימוש הבלתי מבוקר בבינה מלאכותית לאחר מכן. אני ממליץ לבחון מחדש את הארכיטקטורה המאובטחת שלכם, ואז להפעיל צוות אדום. כך ניתן יהיה להבטיח שנכסים קריטיים באמת יהיו שמורים בנפרד".

"למרות הכוח שיש לבינה המלאכותית בהגנה, אני קורא למנהלי האבטחה ולמנמ"רים לא להניח שאימוץ AI יפטור אותם מאחריות בסיסית לאבטחת סייבר", סיכם קוצ'ר, "לא תמיד מנמ"רים מעורבים בפריסת תהליכי עבודה של בינה מלאכותית. היעדר בקרות אבטחה בסיסיות סביב פריסות של בינה מלאכותית – הוא סיכון משמעותי".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים