מחקר: האקרים ימנפו כלים כגון ChatGPT לביצוע הונאות ענק

לפי מחקר של סופוס, הם יצטרכו לצורך כך רק כישורים טכניים מינימליים ● מנגד, אותה חברת אבטחה קובעת, במחקר אחר: למרות הפוטנציאל העצום של ה-AI, יש פושעי סייבר שמטילים ספק לגבי השימוש בה במתקפות

ההאקרים ימנפו כלי GenAI, אם הם יהיו סגורים על עצמם שכדאי להם לעשות את זה.

בעתיד הלא רחוק, קבוצות תקיפה יוכלו למנף טכנולוגיות כמו GPT – זו שעומדת מאחורי כלי ה-GenAI הפופולרי ChatGPT – כדי לבצע הונאות בקנה מידה עצום, ולעשות זאת בעזרת כישורים טכניים מינימליים; כך לפי מחקר חדש של סופוס. מחקר נוסף, גם הוא של סופוס, מעלה שפושעי הסייבר חלוקים בדעתם לגבי השימוש ב-AI לביצוע הפשעים שלהם.

המחקר הראשון דן בצד האפל של ה-AI, וקובע כי קמפייני הונאות בהיקפי ענק נעשו אפשריים בזכות ה-GenAI. באמצעות תבנית אי-קומרס פשוטה וכלי LLM (מודל של שפה גדולה) כמו GPT-4, צוות Sophos X-Ops הצליח לבנות אתר אינטרנט מתפקד במלואו עם תמונות, אודיו ותיאורי מוצרים שנוצרו על ידי בינה מלאכותית יוצרת, כמו גם דף כניסה מזויף לפייסבוק ודף תשלום מזויף, שיכולים לגנוב סיסמאות ופרטי אשראי של משתמשים. הקמתו ותפעולו של האתר דורשים ידע טכני מינימלי, ובאמצעות אותו כלי הצליח צוות המחקר ליצור מאות אתרים דומים בתוך דקות ובפעולה אחת בלבד.

לדברי בן גלמן, מדען נתונים בכיר בסופוס, "טבעי וצפוי שפושעי סייבר יאמצו טכנולוגיות חדשות לשיפור האוטומציה. יצירתן של הודעות דואר זבל הייתה שלב קריטי בטכנולוגיית ההונאה, כיוון שהיא שינתה את קנה המידה של מגרש המשחקים (שבו פושעי הסייבר והמגינים משחקים – י"ה). כלי ה-AI החדשים נועדו לעשות את אותו הדבר. טכנולוגיית הבינה המלאכותית עלולה לייצר איומים משמעותיים, ויש להניח שפושעים ישתמשו בה. כבר ראינו שילוב של רכיבי AI בהונאות קלאסיות, כמו טקסט או תמונות שנוצרו על ידי בינה מלאכותית כדי לפתות קורבנות".

לפי גלמן, "המטרה היא להיות צעד אחד לפני הפושעים. בבניית מערכת ליצירת אתרים מזויפים בקנה מידה גדול, יש לנו הזדמנות ייחודית לנתח ולהתכונן לאיום לפני שהוא מתעצם".

פושעי סייבר חוששים מהונאות

המחקר השני, שכותרתו "פושעי סייבר לא יכולים להסכים על (טכנולוגיות כגון – י"ה) GPT", מצא שלמרות הפוטנציאל העצום של הבינה המלאכותית, חלק מפושעי הסייבר לא בהכרח ממהרים לאמץ LLMs כמו ChatGPT.

המחקר בחן ארבעה פורומים בולטים בדארקנט שבהם מתקיימים דיונים שקשורים ל-LLMs. הרושם העולה מהם הוא שהשימוש בבינה מלאכותית בקרב פושעי הסייבר נמצא בשלבים ראשונים, ושחקני האיומים ברשת האפלה דנים בפוטנציאל שלו. חוקרי סופוס מצאו עדויות ראשונות לשימוש ב-AI בהונאות קריפטו באמצעות אפליקציות היכרויות.

בנוסף, מצאו החוקרים שרוב הפוסטים היו קשורים לחשבונות ChatGPT שנפרצו ועמדו למכירה ופריצות Jailbreaks, שהן דרכים לעקוף את ההגנות המובנות ב-LLMs, כך שפושעי הסייבר יכולים להשתמש בהם למטרות זדוניות. החוקרים מצאו גם 10 נגזרות ChatGPT שלטענת היוצרים ניתן להשתמש בהן להפעלת מתקפות סייבר ופיתוח תוכנות זדוניות. עם זאת, להאקרים היו תגובות מעורבות באשר לנגזרות אלה ולאפליקציות LLMs זדוניות אחרות. רבים מהם הביעו דאגה מכך שמנסים להונות אותם.

לדברי כריסטופר באד, מנהל מחקר ב-Sophos X-Ops, "על אף שיש חשש משמעותי מהניצול לרעה של AI ו-LLM על ידי פושעי סייבר, מאז שחרור ChatGPT ועד כה מצאנו ששחקני איום הם יותר סקפטיים מאשר נלהבים. בשניים מארבעת הפורומים בדארקנט איתרנו רק 100 פוסטים על AI. בהשוואה, בדיונים על מטבעות קריפטוגרפים מצאנו 1,000 פוסטים באותה התקופה".

הוא ציין כי "ראינו פושעי סייבר שניסו ליצור נוזקות או כלי תקיפה באמצעות LLMs, אבל התוצאות היו בסיסיות ולעתים קרובות הם נתקלו בספקנות מצד משתמשים אחרים. במקרה אחד, שחקן איום שהיה להוט להציג את הפוטנציאל של ChatGPT חשף, מבלי משים, מידע משמעותי על זהותו האמיתית. מצאנו גם פוסטים רבים על ההשפעות השליליות הפוטנציאליות של הבינה המלאכותית על החברה ועל ההשלכות האתיות של השימוש בה. לפחות לעת עתה, נראה שפושעי הסייבר מנהלים את אותם ויכוחים על LLM כמו כולנו".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים