אל תשאלו: GPT-5 גרוע באבטחה

OpenAI ומיקרוסופט הבטיחו כי גרסה 5 היא מהמאובטחת ביותר - אז זהו, שלא

לא מזהיר באבטחה. GPT-5.

לפני שבוע, ב-7 באוגוסט, השיקה OpenAI את GPT-5 – מודל השפה הגדול החדש ביותר שלה הכולל "כלים מהירים, חכמים ובעלי יכולת גבוהה יותר עבור ארגונים". בחלוף שבוע משתמשים זועמים על הביצועים והחשיבה שלו, והם לא לבד: חוקרי אבטחה קבעו שהמודל נכשל לחלוטין במדדי אבטחה ובטיחות מרכזיים.

לאורך השבוע האחרון, חוקרי אבטחה רבים בחנו את הכלי, ורבים מהם זיהו בו פגיעויות וחולשות – שכבר התגלו ותוקנו בגרסאות ישנות יותר.

חוקרי SPLX, חברת בינה מלאכותית, חשפו את המודל ליותר מ-1,000 תרחישי תקיפה שונים, כולל הזרקת שאילתות, הרעלת נתונים והקשר, 'פריצה לכלא' – הוספת יכולות ויישומים מעבר להרשאות יצרן המכשיר הנייד – וחילוץ וקצירת נתונים. קביעת החוקרים היא: "גרסת ברירת המחדל, מהקופסה, של GPT-5 – כמעט בלתי שמישה עבור ארגונים".

ציונים נמוכים וטענות סותרות

הגרסה קיבלה ציון נמוך מאוד, של 2.4%, בהערכת אבטחה; 13.6% בבטיחות; ו-1.7% ב"הלימה למודל העסקי". מנגד, החוקרים הסבירו כי המדד האחרון העלה שהמודל סירב לבצע משימות מחוץ לתחומו, וכן להדליף נתונים, או לקדם מוצרים מתחרים שלא ביודעין.

"הופתענו בתחילה מרמות האבטחה והבטיחות הירודות במודל החדש", כתבו החוקרים. "ציפינו ש-GPT-5 יהיה טוב יותר, כמו שהחברות הבטיחו. היה רגע מפתיע מאוד, כשערכנו את הסריקה שלנו… זה היה נורא. מצב האבטחה מצוי הרחק מאחור לעומת כל המודלים, והוא דומה לכמה מודלים של קוד פתוח – וגרוע מכך".

בפוסט בבלוג החברה, צוטטה שרה בירד, מנהלת מוצר ראשית ל-AI במיקרוסופט (Microsoft), כאומרת: "צוותי הבינה המלאכותית ואבטחת מידע של מיקרוסופט מצאו של-GPT-5 יש את אחד מפרופילי הבטיחות החזקים ביותר מבין כל המודלים הקודמים של OpenAI". מיקרוסופט טענה כי בדיקות פנימיות ל-GPT-5 נעשו עם "פרוטוקולי אבטחה קפדניים" וכי "הוא פועל נגד כמה מצבי התקפה".

לפי כרטיס המערכת של המודל, GPT-5 נבדק בהיבטי בטיחות ואבטחה, עבר שבועות של בדיקות מצוות האבטחה של החברה וצדדים שלישיים חיצוניים. אלה התמקדו בשלב טרום הפריסה, באמצעי הגנה סביב השימוש בפועל במודל, ובפגיעויות בממשקי API.

"עבודת בדיקות האבטחה והבטיחות שלנו כללה יותר מ-9,000 שעות עבודה של יותר מ-400 בודקים ומומחים חיצוניים. הצוותים נתנו עדיפות למגוון נושאים, כולל תכנון מתקפות אלימות, 'בריחות מהכלא', שמתחמקות באופן אמין מאמצעי ההגנה שלנו, הזרקות שאילתות מיידיות ועוד", נמסר.

סדרי עדיפויות שונים וסיכונים עתידיים

חוקרי SPLX הסבירו את הפער בכך שלחברות יש סדרי עדיפויות אחרים כאשר הן משחררות מודלים חדשים. "כל המודלים המסחריים החדשים נבחנים במערך קבוע של מדדים המודדים יכולות – כגון יצירת קוד, נוסחאות מתמטיות, ומדעי החיים כמו ביולוגיה, פיזיקה וכימיה – שהלקוחות הכי רוצים בהן. ציונים גבוהים לאבטחה ובטיחות אינם מדורגים באופן דומה בחשיבותם. ייתכן שהמפתחים ב-OpenAI ובמיקרוסופט עשו בדיקות שאינן רלוונטיות לתעשייה – כדי לטעון שתכונות האבטחה והבטיחות עומדות בדרישות".

בתגובה אמר דובר OpenAI ש-"GPT-5 נבדק באמצעות StrongReject – אמת מידה אקדמית שפותחה בשנה שעברה על ידי חוקרים מאוניברסיטת קליפורניה בברקלי. אנו נוקטים בצעדים כדי להפחית את הסיכון לשימוש זדוני, ומשפרים ללא הרף את אמצעי ההגנה כדי להפוך את המודלים שלנו לחזקים יותר נגד ניצול לרעה".

הממצאים של מחקר זה מצטרפים לאלו עליהם דיווחנו אתמול (ד') שמקורם במחקר נוסף, של NeuralTrust, שזיהתה דרך לפרוץ את מודל הבסיס באמצעות הרעלה של הקשר.

יום לאחר שחרור GPT-5, חוקרים במעבדות RSAC ואוניברסיטת ג'ורג' מייסון פרסמו מחקר על שימוש בבינה מלאכותית סוכנת בארגונים, וכתבו במסקנותיהם כי "אוטומציה מונעת בינה מלאכותית מגיעה עם עלות אבטחה עמוקה".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים