חברת אבטחת AI חדשה נחשפת עם גיוס של 18 מיליון דולר
לומיה סקיוריטי פיתחה פלטפורמה שמנטרת ומפקחת אחר השימוש ב-AI שעושים העובדים והסוכנים כאחד ● היא נוסדה על ידי עומרי אילוז, מייסד פרימטר X, ואל"מ (מיל') בובי גילבורד, לשעבר בכיר ב-Team8 וב-8200
עוד חברת אבטחת בינה מלאכותית חדשה נחשפת: לומיה סקיוריטי, שקמה לפני כמה חודשים ומודיעה היום (א') על גיוס סיד בסכום של 18 מיליון דולר. החברה פיתחה פלטפורמה לצוותי האבטחה בארגונים, שמנטרת ומפקחת אחר השימוש בבינה מלאכותית שעושים העובדים וסוכני ה-AI כאחד.
שני מייסדי לומיה הם יזמים ואנשי סייבר בעלי ניסיון רב: עומרי אילוז, המשמש כמנכ"ל החברה, הוא יזם סדרתי, שמאחוריו הקמת פרימטר X, שנרכשה על ידי היומן סקיוריטי האמריקנית, ואל"מ (מיל') בובי גילבורד, סמנכ"ל הטכנולוגיה של לומיה, שהיה סמנכ"ל החדשנות של Team8 ולפני כן שירת ב-8200 במשך 26 שנים. הוא אף קיבל את פרס ביטחון ישראל. יש לציין שלומיה הוקמה כחלק ממודל ה-Venture Creation של Team8, שהובילה את סבב הגיוס. יש לחברה משרדים בניו יורק ובישראל, בהם מועסקים 20 עובדי פיתוח ומחקר, והיא מתכננת להגדיל את הצוותים שלה בשנה הקרובה.
שוק שצומח בקצב מהיר מאוד
לומיה סקיוריטי פועלת בשוק ה-AI לטובת אבטחת סייבר, שצומח בקצב מהיר: בשנה שעברה הוא הוערך ב-26.6 מיליארד דולר, וצפוי להגיע ל-234.6 מיליארד עד שנת 2032 – כך לפי נתוני Fortune Business Insights. עובדים במרבית הארגונים עושים שימוש גובר ובלתי מבוקר בכלי AI, כאשר במקרים רבים, אין לצוותי האבטחה נראות ושליטה על שימוש זה. לפי דו"ח חדש של Team8, שנערך בשיתוף סמנכ"לי אבטחת מידע מחברות פורצ'ן 500, סוכני ה-AI הופכים למרכיב מרכזי בתשתיות הארגוניות – 70% מהארגונים משתמשים בהם בפרודקשן, 23% מתכננים להכניס אותם עד 2026 ו-67% מהארגונים מפתחים סוכנים פנימיים בעצמם. עם זאת, על אף שאימוץ הבינה המלאכותית נמצא בעלייה חדה – 97% מהחברות כבר משתמשות בה, כמחצית מהן מגבילות את השימוש בכלים הפנימיים בשל סיכוני אבטחה והיעדר רגולציה. סמנכ"לי אבטחת המידע שענו לסקר העידו כי האתגרים המרכזיים שלהם אלה הגנת סוכני בינה מלאכותית (37%) וניהול שימוש העובדים (36%).
הבעיה העיקרית נובעת מכך שאין בידי צוות הבקרה את הכלים לנטר אחר המשתמשים והסוכנים ולבחון מה הסיכונים והחשיפה לארגון כתוצאה מאינטראקציות, מה כל סוכן מבצע בפועל, תחת אילו הרשאות ומה ההשלכות העסקיות. כתוצאה מכך נוצרים פערי אבטחה לא מטופלים, לצד גישות ופעילויות לא מבוקרות במערכות הארגון. כל אלה מובילים חלק מהארגונים להגביל או לחסום שימוש ב-AI גם על חשבון פגיעה בתפוקה – מה שמדגיש את הצורך הדחוף בשקיפות, רגולציה ופיקוח אחר שימוש אחראי בבינה מלאכותית בסביבות ארגוניות.
בלומיה אומרים שהמוצר של החברה מנטר ומפקח על השימוש ב-AI לאורך כלל שרשרת הארגון – מה שמעניק נראות ושליטה מלאה בכל אינטראקציה בזמן אמת, בהתאם למדיניות הרגולציה וסטנדרט אבטחת המידע של הארגון. הפלטפורמה מנתחת כל אינטראקציה של משתמש מול AI ואת כלל פעולות סוכני הבינה המלאכותית בארגון, ומבצעת הערכת סיכונים מתוך התוכן, הקונטקסט וכוונת המשתמש. כך, על פי החברה, מתבצעת אכיפה מדויקת וחכמה, מבלי שצוותי האבטחה יצטרכו לחסום שירותים או לנסות להקשיח כל כלי בנפרד.
ההשקעה תאפשר ללומיה להגדיל את ההון האנושי שלה, בדגש על צוותי המו"פ, להאיץ את פיתוח המוצר ולהרחיב פעילות החברה בשווקים הבינלאומיים, על ידי הרחבת פעילות השיווק והמכירות. מוסדות פיננסיים וארגוני תעשייה וטכנולוגיה שמנהלים מידע רגיש כבר משתמשים בפתרון של החברה.
אילוז ציין כי "בעידן שבו הבינה המלאכותית משנה את כללי המשחק, מנהלי אבטחת המידע נתונים ללחץ הולך וגובר: מחד גיסא הם לא יכולים לחסום שימוש בכלים שמייצרים קפיצה דרמטית בתפוקה ובפרודוקטיביות, ומאידך גיסא הם לא יכולים להתעלם מהסיכונים הנוצרים משימוש לא מאובטח. הפלטפורמה שפיתחנו מאפשרת לארגונים לאמץ את הבינה המלאכותית בצורה מאובטחת ואחראית, תוך ניהול בקרה רציפה בסקייל רחב – כך שהטכנולוגיה משרתת את הארגון ולא פותחת פתח לסיכונים מיותרים".











תגובות
(0)