בכירה בסייבר מתריעה: "המודל מיתוס של אנת'רופיק – חזק מדי"

המנהלת בפועל לשעבר של מינהל הסייבר הלאומי של ארה"ב: "מיתוס יכול לבנות ולשרשר ניצולים באופן אוטונומי, ואז לטשטש את עקבותיו.... השילוב הזה עלול להפוך את מתקפות הסייבר למתוחכמות וקשות יותר לזיהוי"

מסוכן. מיתוס.

מיתוס, מודל הבינה המלאכותית החדש של אנת'רופיק, מעלה את רף החששות בקרב קהילת אבטחת המידע העולמית. וכנראה בצדק: המומחים של החברה תיארו את המודל כ"חזק מדי כדי לשחרר אותו לציבור" בצורתו הנוכחית, בשל חששות לגבי קלות השימוש לרעה ביכולותיה. החשש נובע מהיכולת של המודל לזהות ולנצל פגיעויות תוכנה ברמה זהה, או כזו שעולה על הרמה של מומחים אנושיים. לפי החברה, מיתוס כבר מצא אלפי פגיעויות ברמות חומרה גבוהה, לרבות בכל מערכת הפעלה ודפדפן מרכזיים – מה שמצביע על סיכון התקפי. החשש, מעבר ליכולות של מיתוס, הוא, שהמודל יגיע לידיים הלא נכונות וינוצל לרעה.

"הטבע הדו-שימושי (שיפור יכולות ההתקפה, וגם ההגנה, י.ה.) הזה הוא בדיוק הבעיה. הטכנולוגיה מייצגת קפיצה ביכולות ההגנה של הבינה המלאכותית, אך גם מציגה סיכונים מובנים, החושפים פגיעויות בתשתיות ובמערכות הקריטיות שלנו", כך כתבה קמבה וולדן, לשעבר מנהלת בפועל של מינהל הסייבר הלאומי של ארה"ב.

וולדן שימשה בתפקיד ב-2023, בממשל ביידן, לאחר שב-2022 הייתה סגנית המנהל הראשי. וולדן כיהנה בעבר כעוזרת ליועץ המשפטי הכללי של יחידת הפשעים הדיגיטליים (DCU) במיקרוסופט. ב-2024, וולדן מונתה לנשיאת פאלאדין – מכון חדש למחקר ופעילות בתחום אבטחת הסייבר.

וולדן פרסמה מאמר, המהווה "קריאת השכמה" בנושא באתר פורצ'ן (Fortune) בסוף השבוע. "הסיכונים הללו נובעים מהאופן האוטונומי שבו המערכת יכולה לפעול", הסבירה, "מיתוס יכול לבנות ולשרשר ניצולים באופן אוטונומי, ואז לטשטש את עקבותיו…. השילוב הזה עלול להפוך את מתקפות הסייבר למתוחכמות יותר וקשות יותר לזיהוי, או לשליטה".

היא הסבירה כי החשש מתגבר, כאשר בוחנים היכן קיימות אותן פגיעויות. "יש מגזרים, כמו מערכות מים והפצת חשמל. אלה מקומות שלעיתים מתוחזקים על ידי סוכנויות מדינה וגופים מקומיים, והם לרוב בעלי משאבים נמוכים, וככאלה הם חשופים במיוחד. בעוד שלתאגידים גדולים יש את האמצעים לשדרג את ההגנות שלהם בתגובה לאיומי AI מתקדמים יותר ויותר, גופים קטנים ומפעילי תשתיות ציבוריות – עלולים להישאר מאחור ברמת ההגנה שלהבם בסייבר".

לדברי וולדן, "חוסר האיזון הזה עלול ליצור פער אבטחה מתרחב, שבו המערכות הקריטיות ביותר הן גם הפחות מצוידות להגן מפני התקפות מבוססות בינה מלאכותית".

"כדי להתמודד עם הסיכון הזה, אני קוראת לבנייה של תגובה מתואמת, כזו שהיא מעבר למגזר הפרטי", כתבה וולדן במאמר, "עלינו להניע השקעה ב'פינות' של התשתיות המוגבלות הללו, כדי שטכנולוגיות חדשות שנבנו – יוכלו לעמוד בפני ניצול מבוסס AI. יש צורך בהשקעה דחופה, בבנייה ואכיפה של מדיניות על חדשנות, וכן בשיתוף פעולה בין מגזרי ציבורי-פרטי, חזק יותר".

"בלא ההתערבות הזו", סיכמה הבכירה לשעבר בבית הלבן, "אותם כלים שנועדו לחזק את אבטחת הסייבר – עלולים לחשוף את נקודות התורפה הגדולות ביותר שלה".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים