דו"ח: השימוש של ארגונים ב-GenAI זינק ב-890%

ארגון ממוצע משתמש ב-66 אפליקציות בינה מלאכותית יוצרת, מהן שש בעלות סיכון גבוה - כך לפי פאלו אלטו ● אירועים הקשורים למניעת אובדן מידע ול-GenAI כאחד מהווים 14% מאירועי האבטחה בארגונים

הבינה המלאכותית יוצרת לא רק תוכן, אלא גם סיכוני אבטחת מידע.

השימוש של ארגונים בבינה מלאכותית יוצרת הפך לרחב מאוד: דו"ח חדש של פאלו אלטו מעלה כי ב-2024 חל זינוק של 890% בתנועת המשתמשים הארגוניים ב-GenAI. עם זאת, הדו"ח מצביע גם על עלייה משמעותית בסיכוני אבטחת המידע הנובעים מכך.

חוקרי פאלו אלטו מצאו כי בשנה האחרונה נרשמה עלייה של פי 2.5 באירועים שקשורים הן ל-GenAI והן למניעת אובדן מידע (DLP), ואלה מהווים 14% מכלל אירועי אבטחת המידע בארגונים. בחברה מציינים שיישומי GenAI עלולים להוות סיכון לאובדן מידע רגיש, כאשר שימוש לא מאושר או רשלני עלול להוביל לדליפות של קניין רוחני, לחששות לגבי עמידה בתקנות ולפגיעות באמצעות פרצות מידע.

הדו"ח מצביע גם על כך שהשימוש באפליקציות GenAI לא מאושרות – נרחב. על פי הנתונים, בממוצע, כל ארגון משתמש ב-66 אפליקציות GenAI, בהן שש שסווגו כבעלות סיכון גבוה. השימוש בכלים לא מאושרים, היעדר מדיניות ברורה לגבי בינה מלאכותית והלחץ לאמץ טכנולוגיה במהירות מגבירים את הסיכון לחשיפות מידע קריטי ולפגיעות אבטחת מידע.

נוסף על כך, הדו"ח מציין את תופעת AI הצללים (ה-Shadow AI), שבה עובדים עושים שימוש בלתי מאושר בטכנולוגיות בינה מלאכותית, מבלי שצוות ה-IT של הארגון מודע לכך. מצב זה מקשה על המעקב והשליטה, ומגביר את הסיכון לחשיפת מידע רגיש ולאיומים לא מאובטחים. אחד הגורמים לכך הוא השימוש בתוספים, סוכני AI ובוטים לא מאושרים, שפותחים "דלתות צדדיות", שלא תמיד מוגנות כראוי.

למרות הסיכונים, הדו"ח מצביע על הפוטנציאל העצום של ה-GenAI להאצת הפרודוקטיביות בארגונים. כ-84% מהפעולות שנבדקו היו קשורות לשימוש ב-GenAI לטובת כתיבה, ניהול שיחות, תכנות וחיפוש פנים ארגוני, באופן שמדגיש את הפוטנציאל של טכנולוגיה זו לשדרג את יכולת העבודה בארגון. לצד זאת, בחברה קוראים לארגונים לקחת בחשבון את הסיכונים הגדלים של חשיפת מידע רגיש והפרת רגולציות – דבר שמחייב אותם לפתח מדיניות אבטחה ונהלים ברורים, על מנת לנהל את הסיכון בצורה חכמה וממוקדת.

אז מה עושים?

בפאלו אלטו מציעים כמה דרכים לניהול נכון של הסיכונים הקשורים לשימוש ב-GenAI: ראשית, הם ממליצים להבין את השימוש בבינה מלאכותית יוצרת ולהגביל את הגישה. יש ליישם ניהול גישה קפדני לפלטפורמות ויישומים, על פי קבוצות משתמשים, רמת הסיכון של האפליקציות ומדיניות אבטחה ארגונית, אומרים בחברה. צעד שני הוא הגנה על מידע רגיש. במסגרת זו, מציינים החוקרים, מומלץ להטמיע מערכות לניהול אבטחת מידע שמבצעות בדיקות תוכן בזמן אמת, כדי למנוע גישה לא מאושרת ודליפת מידע רגיש. כמו כן, הם ממליצים לפעול להגנה מפני איומים מתקדמים על ידי יישום של מסגרת אבטחת מידע המבוססת על גישת אמון אפס, לזיהוי וחסימה של איומים חמקניים ומתקפות מתוחכמות שמקורן בבינה מלאכותית יוצרת.

יוני אלון, סמנכ"ל מחקר ופיתוח בפאלו אלטו, אמר כי "ארגונים רבים אימצו במהירות את הבינה המלאכותית היוצרת מבלי להבין עד הסוף את הסיכונים הטמונים בה. מטרת הדו"ח שלנו היא לבחון את היתרונות, האתגרים והדרך לאזן בין AI לאבטחה, כדי לאפשר עבודה יעילה לצד שימוש ביתרונות החדשנות בצורה בטוחה".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים