הצד האפל: כמעט כל הארגונים מאמינים שה-AI מסוכנת

94% ממנהלי ה-IT והאבטחה סבורים שהשימוש ב-AI עלול להחמיר את חשיפת סיכוני הסייבר שלהם, ואף יוביל לאיומים חדשים ב-3-5 השנים הבאות - כך לפי מחקר חדש של טרנד מיקרו

החשש בקרב ארגונים מסיכוני הבינה המלאכותית - גדול.

לצד אימוץ נרחב של טכנולוגיות בינה מלאכותית באסטרטגיות אבטחת סייבר, גדל בקרב ארגונים החשש מסיכוני סייבר משמעותיים שהיא תביא איתה: 94% מהם מאמינים שהשימוש ב-AI עלול להחמיר את חשיפת סיכוני הסייבר שלהם, ואף יוביל לאיומים חדשים בשלוש עד חמש השנים הבאות – כך לפי מחקר חדש של טרנד מיקרו.

המחקר בוצע על ידי סאפיו ריסרץ' בקרב 2,250 אנשי ומנהלי IT ואבטחת מידע בארגונים ממגוון מגזרים מ-21 מדינות בעולם. עולה ממנו כי 81% מהארגונים כבר משתמשים בכלים מבוססי AI כחלק מאסטרטגיית אבטחת הסייבר שלהם. 16% נוספים נמצאים בשלבי בחינה והטמעה פעילים של כלים כאלה. יותר ממחצית מהעסקים כבר נסמכים על טכנולוגיית הבינה המלאכותית בתהליכים חיוניים, כגון גילוי נכסים אוטומטי, תעדוף סיכונים וזיהוי חריגות. בקרב 42% מהארגונים, הבינה המלאכותית והאוטומציה יקבלו עדיפות עליונה בהשקעה ובמימוש ב-12 החודשים הקרובים.

"עם זאת, לצד האופטימיות קיימים גם סיכונים משמעותיים", כתבו חוקרי טרנד מיקרו. הם מצאו שיותר ממחצית מהארגונים צופים עלייה משמעותית בהיקף ובמורכבות של מתקפות מבוססות AI – מה שיאלץ אותם לבחון ולעצב מחדש את האסטרטגיות הקיימות.

מהם החששות?

סיכוני הסייבר כתוצאה משימוש ב-AI, שהמנהלים העלו במחקר, הם: סיכון לחשיפת מידע רגיש, חוסר ודאות בנוגע לאופן עיבוד ואחסון הנתונים על ידי מערכות AI, אפשרות שמידע קנייני ינוצל לרעה על ידי מודלים לא מהימנים, כמו גם אתגרי עמידה ברגולציה וניטור הנובעים מריבוי נקודות קצה חדשות, ממשקי API ומחשוב צללים (Shadow IT).

המתח בין ההזדמנויות לסיכונים בא לידי ביטוי גם באירוע Pwn2Own שטרנד מיקרו ערכה באחרונה בברלין: 12 צוותים התמודדו מול ארבע פלטפורמות AI מרכזיות, כאשר שרת NVIDIA Triton Inference היה המטרה המרכזית. גם Chroma, רדיס ו-NVIDIA Container Toolkit נפרצו בהצלחה, בחלק מהמקרים באמצעות באג יחיד בלבד, שהוביל להשתלטות מלאה. בסך הכול גילו הצוותים שבע חולשות יום אפס ייחודיות בפלטפורמות ה-AI.

לדברי רייצ'ל ג'ין, סמנכ"לית פלטפורמות ארגוניות בטרנד מיקרו, "הבינה המלאכותית טומנת בחובה פוטנציאל עצום לחיזוק מערכות הגנות הסייבר – החל מזיהוי חריגות בזמן אמת ועד לאוטומציה של משימות שדורשות זמן ומשאבים. אבל, חשוב להבין שגם התוקפים ממהרים לנצל את היכולות הללו למטרותיהם, מה שיוצר נוף איומים משתנה ודינמי. המחקר שלנו, יחד עם בדיקות שטח בעולם האמיתי, מדגישים את הצורך הקריטי לשלב אבטחה כבר בשלבים הראשונים של פיתוח והטמעת מערכות AI. ככל שהבינה המלאכותית משתלבת עמוק יותר בסביבות IT ארגוניות, מובילי אבטחה בארגונים צריכים לקחת אחריות יזומה ולבצע הערכה שיטתית של נוף האיומים המשתנה, תוך שילוב פרקטיקות אבטחה קפדניות בכל שלב של אימוץ מערכות AI. זה לא תחום שניתן להשאיר לטיפול בדיעבד – הסיכון גבוה מדי".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים