גרטנר: 40% מהארגונים ייפגעו בסייבר בשל "צל בינה מלאכותית"
מה הן חמש נקודות העיוורון הקריטיות בבינה מלאכותית יוצרת, לפי חברת המחקר?
עד 2030, יותר מ-40% מהארגונים בעולם יחוו תקריות אבטחה ובעיות הכרוכות בהלימה לרגולציות עקב שימוש בכלי בינה מלאכותית לא מורשים, תופעה המכונה "צל AI", כך לפי מחקר חדש של גרטנר.
לפי חברת המחקר, סקר שנערך בקרב מקצועני אבטחת סייבר השנה חשף, כי ל-70% מהם יש הוכחות, או חשדות – שלפיהם עובדים עושים שימוש בבינה מלאכותית יוצרת ( GenAI) במקום העבודה.
"כלים אלה", התריעו אנשי גרטנר, "עלולים להגדיל את הסיכון לאובדן קניין רוחני, לחשיפת נתונים ולפגיעה נוספת בתחומי האבטחה וההלימה לתקנות".
כדי להתמודד עם סיכונים אלו, ציינו החוקרים, "על מנמ"רים להגדיר מדיניות ארגונית ברורה לשימוש בכלי בינה מלאכותית, לבצע ביקורות שגרתיות לפעילות של 'צל AI' ולשלב את הערכת הסיכונים שלהם לגבי GenAI בתהליכי ההערכה שלהם ב-SaaS".
"אפילו שימוש לגיטימי ב-GenAI עלול לגרום לתוצאות בלתי צפויות", הזהירה חברת המחקר, "עד 2030, כ-50% מהארגונים יתמודדו עם עיכוב בשדרוגי הבינה המלאכותית, או גידול בעלויות התחזוקה. זאת, בשל בעיות טכניות של העדר ניהול הקשור לשימוש ב-GenAI. שדרוגים מאוחרים במיוחד עלולים ליצור סיכוני אבטחה אם הם אינם מנוהלים כראוי".
לפי חוקרי גרטנר, "ארגונים נרגשים ממהירות האספקה של GenAI. עם זאת, העלות הגבוהה של תחזוקה, תיקון או החלפה של פריטים שנוצרו על ידי AI, כמו קוד, תוכן ועיצוב, עלולים לפגוע בתשואה המובטחת מ-GenAI. לכן, יש לקבוע סטנדרטים ברורים לסקירה ותיעוד נכסים שנוצרו על ידי AI".
"כדי למנוע אובדן הדרגתי של זיכרון ויכולות ארגוניות, ארגונים צריכים לזהות היכן שיקול דעת אנושי ומיומנות חיוניים, ולעצב פתרונות בינה מלאכותית שישלימו את הכישורים הללו ולא יחליפו אותם".
לפי חברת המחקר, "מנמ"רים צריכים לתת עדיפות לסטנדרטים פתוחים, לממשקי API פתוחים ולארכיטקטורות מודולריות בעת שהם מעצבים את ערימת הבינה המלאכותית שלהם. המטרה היא להימנע מתלות יתר בספק יחיד".
חמש נקודות עיוורון קריטיות
גרטנר זיהתה חמש נקודות עיוורון קריטיות, הנובעות מסיכונים שהוזנחו והשלכות בלתי מכוונות – של אימוץ GenAI. היא קראה למנהלי ארגונים "להתמודד עם האתגרים הנסתרים הללו כדי להבטיח מימוש ערך מהתחום ולהימנע מכישלונות של פרויקטי AI". גרטנר חוזה, שעד 2030, "נקודות עיוורון אלו ייצרו את הקו המפריד בין ארגונים שמרחיבים את ה-AI אצלם בצורה בטוחה ואסטרטגית לבין אלה שה-AI לא תביא להם תועלת, או גרוע מכך, תגרום לשיבושים".
"טכנולוגיות בינה מלאכותית יוצרת מתפתחות בקצב חסר תקדים, מה שמקשה על מנמ"רים לנווט בנוף הדינמי הזה", כתבו האנליסטים. לפיהם, הנקודה העיוורת הראשונה היא "צל AI". גרטנר צופה שעד 2030, יותר מ-40% מהארגונים יתמודדו עם תקריות אבטחה או הלימה לתקנות (ציות) הנובעות מנקודה עיוורת זו.
הנקודה השנייה היא עיכוב בשדרוגי הבינה המלאכותית, או גידול בעלויות התחזוקה. נקודת עיוורון נוספת קשורה למהלך שעורכות 65% ממשלות ברחבי העולם, המכניסות דרישות לריבונות טכנולוגית, לשיפור העצמאות ולהגנה מפני התערבות רגולטורית מבחוץ. "תקנות ורגולציות לנתונים ושיתוף מודלים-חוצי גבולות, עלולים לעכב את פיתוח המערכות משולבות AI, להגדיל את עלות הבעלות הכוללת (TCO) ולגרום לתוצאות פחות טובות".
עוד מציינים האנליסטים, כי "תלות יתר בבינה מלאכותית עלולה להפחית את המומחיות והידע האנושי החיוני. לעיתים מדובר במגמה לא מובחנת, עדינה, שלא מציפה את הבעיה עד שהארגון מתעורר ורואה שהוא פועל בלא בינה מלאכותית, או מתמודד עם מקרים קיצוניים, הדורשים מעורבות של בן אנוש.
הנקודה האחרונה היא "נעילה של האקו-סיסטם ותאימות". לפי המחקר, "ארגונים השואפים להרחיב במהירות את ה-AI שלהם, בוחרים לעיתים קרובות בספק יחיד כדי להשיג מהירות ופשטות. תלות זו עלולה להגביל את הגמישות הטכנית ולהחליש את היכולת לעזוב ספק זה בעתיד. לכן רצוי להעדיף תקנים פתוחים, ממשקי API פתוחים וארכיטקטורות מודולריות".











תגובות
(0)