בראשונה: סין תקפה בסייבר עם קלוד של אנת'רופיק

השימוש ב-AI של אנת'רופיק על ידי ההאקרים בגיבוי הסיני תועד זו הפעם הראשונה: מודל הבינה המלאכותית סייע באוטומציה של 80%-90% מפעולות ההכנה והתקיפה כנגד 30 מטרות גלובליות

לא הוסר שהאקרים סינים עשו בו שימוש במתקפה. קלוד של אנת'רופיק.

נחשף המקרה המדווח הראשון של האקרים בחסות מדינה, שניצלו בינה מלאכותית כדי להפוך חלקים ממתקפות סייבר לאוטומטיים.

חברת ה-AI אנת'רופיק (Anthropic) הודיעה בסוף השבוע כי שיבשה פעולת סייבר של כנופייה הקשורה לממשל הסיני, שלא הייתה ידועה בעבר. מסע המתקפות כלל שימוש בבינה מלאכותית להכוונת קמפיינים של פריצה. לפי החוקרים, "זו התפתחות מטרידה שעלולה להרחיב מאוד את טווח ההגעה של האקרים שלהם AI".

החששות לגבי השימוש ב-AI להנעת פעולות סייבר אינם חדשים. לפי חוקרי אנת'רופיק, "מה שמדאיג במבצע החדש הוא היקף העבודה האוטומטית שה-AI הצליחה לעשות. צפינו שהיכולות הללו ימשיכו להתפתח, מה שהיה בולט הוא כמה מהר הם עשו זאת ובהיקף גדול".

ההאקרים הסינים התמקדו במתקפות על חברות טכנולוגיה, מוסדות פיננסיים, חברות כימיקלים וסוכנויות ממשלתיות. לפי החוקרים, "ההאקרים תקפו כ-30 מטרות גלובליות והצליחו במספר קטן, ארבעה, מהמקרים".

שחקן האיום הצליח לעקוף את מערכות האבטחה של הקורבנות בשתי שיטות: פירוק העבודה למשימות נפרדות, כדי למנוע מהתוכנה לזהות את הכוונות הזדוניות הרחבות יותר, והטעיית המודל להאמין שהוא מבצע ביקורת אבטחה לגיטימית.

אנת'רופיק מסרה כי ההאקרים הצליחו לתמרן את קלוד (Claude), בוט ה-AI שלה, באמצעות שימוש בטכניקות "פריצה לכלא" (Jailbreaking), הכוללות הטעיות של מערכות AI כדי לעקוף את רכיבי האבטחה שלה, וזאת תוך שימוש באמתלה "שהם עובדים של חברת אבטחת סייבר לגיטימית". ספקית ה-AI זיהתה את המבצע בספטמבר ופעלה כדי לסגור אותו. לדבריה, הבוט שלה עשה עבור ההאקרים 80-90% מפעולות ההכנה לפריצה ומפעולות התקיפה עצמה.

"זה שולח מסר, הם רוצים את הרעש הזה"

התגובות לחשיפה של אנת'רופיק היו מעורבות. חלק ראו בכך תרגיל שיווקי שנועד לקדם את גישת אנת'רופיק להגנה, ואחרים בירכו על שהחברה התריעה על שאירע.

"האירוע מצביע על אתגר גדול עם מודלי AI שאינם מוגבלים רק לקלוד", אמר ג'ון סקוט-ריילטון, חוקר בכיר ב-Citizen Lab. "המודלים צריכים להיות מסוגלים להבחין בין מה שקורה בפועל לבין סוגי תרחישים, בהם ההאקרים 'מבשלים' משחקי תפקידים, כדי להערים על צוותי ההגנה, ולהמשיך ולפעול באופן אתי בסיטואציה".

לפי אדם ארלאנו, CTO ב-הארנס (Harness), "המהירות והאוטומציה ש-AI מספקת, הם מעט מפחידים: במקום שאדם עם כישורים מושחזים ינסה לפרוץ למערכות קשות לפריצה, הבינה המלאכותית מאיצה את התהליכים הללו ומתגברת באופן עקבי יותר על מכשולים".

הסנאטור הדמוקרטי כריס מרפי מקונטיקט, כתב כי "זה הולך להרוס אותנו מוקדם ממה שאנחנו חושבים. צריך להפוך את הרגולציה על AI לעדיפות לאומית – מחר".

צוות הגנת AI של סיסקו (Cisco), כתב כי "ייתכן שיש מניע פוטנציאלי נוסף לפריצה: משלוח מסר גיאו-פוליטי לוושינגטון, לפיו ההאקרים מבייג'ינג יכולים לעשות בדיוק את מה שכולם מפחדים שהם יעשו. לכן הם פעלו בגלוי. זה שולח מסר, הם רוצים את הרעש הזה, את החדשות המרעישות, את הניראות הזו".

צוות מומחים כתב כי "המקרה מדגיש פגם המשותף לכל המחקר שנוצר על ידי AI: מודלים כמו קלוד, לעתים קרובות מזיזים, מפברקים אישורים, מגזימים בממצאים או מציגים מידע זמין לציבור – כתגליות משמעותיות. לכן, מחקר מבוסס AI הוא מאתגר: לשחקני איום, כמו לכל משתמש, אין דרך אמינה לסמוך על התוצאות בכל שלב, מבלי שמומחים אנושיים טכניים יבדקו ויתקנו את התוצאות".

"סוכנים הם בעלי ערך לעבודה יומיומית ולתפוקתיות – אבל בידיים הלא נכונות, הם עלולים להגדיל משמעותית את הכדאיות של מתקפות סייבר בהיקף גדול", סיכמו חוקרי אנת'רופיק. "יש להניח שההתקפות הללו תגדלנה בהיקפן וביעילותן".

דובר שגרירות סין בוושינגטון אמר כי ארצו "מתנגדת בתוקף ופועלת נגד כל צורות מתקפות הסייבר, בהתאם לחוק. אנו שוללים התקפות והשמצות נגד סין. על המבקרים לאמץ גישה מקצועית ואחראית באפיון אירועי סייבר, ולבסס את מסקנותיהם על ראיות מספיקות ולא על ספקולציות והאשמות חסרות בסיס".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים