אריק שמידט, מנכ"ל גוגל לשעבר: ה-AI תוכל "ללמוד כיצד להרוג"

בכנס טק התריע שמידט כי גורמים זדוניים עלולים לפרוץ את מגבלות הבטיחות של ה-AI באמצעות 'ג'יילברייקינג' ו'הזרקת פרומפטים' ולהפוך את הטכנולוגיה לאיום קטלני, אך יחד עם זאת טען כי ה-AI "לא מספיק מוערכת"

אריק שמידט

אריק שמידט, שכיהן כמנכ"ל גוגל (Google) בין השנים 2001 ל-2011, סיפק באחרונה אזהרה חמורה בנוגע לפגיעויות האבטחה המקיפות את מודלי הבינה המלאכותית. הדברים נאמרו במהלך שיחת "צ'אט ליד האח" שנערכה ביום ד' בשבע שעבר ב-Sifted Summit – כנס טכנולוגיה אירופי שהתקיים לאחרונה בלונדון. בשיחה התייחס שמידט לסכנה הטמונה בכך שמערכות AI יפלו לידיהם של "שחקנים זדוניים" וכי אחר כך ייעשה בהן שימוש מרושע. שמידט התריע כי אם ה-AI תיפול לידיים הלא נכונות, היא עלולה אפילו להיות קטלנית. 

ש-"יש בהחלט אפשרות לבעיה של הפצה בלתי מבוקרת בתחום הבינה המלאכותית. כן, לחלוטין", כך דיווח CNBC. לדבריו, עיקר הסכנה נובע מהאפשרות שטכנולוגיות בינה מלאכותית יגיעו לידיים הלא נכונות וייעשה בהן שימוש שלילי. "יש ראיות לכך שניתן לפרוץ למודלים – סגורים או פתוחים – ולנטרל את מנגנוני הבקרה שלהם", הוסיף ואמר שמידט. "במהלך האימון שלהם הם לומדים המון דברים", אמר והסביר כי לדוגמה "הם עלולים ללמוד איך להרוג אדם". שמידט הוסיף ואמר כי כיום כל החברות הגדולות מקפידות למנוע מהמודלים שלהן לענות על שאלות נפיצות וציין כי "זו החלטה טובה, וכולן עושות זאת מהסיבות הנכונות. ובכל זאת, קיימות ראיות לכך שניתן לבצע הנדסה הפוכה למודלים האלה – ויש לא מעט דוגמאות לכך".

שמידט פירט והסביר כי במהלך אימונן, רשתות הנוירונים של המערכות הללו יכולות ללמוד עשייה זדונית באמצעות טכנולוגיה של "הזרקת פרומפטים" (Prompt Injection), שמטמינה הוראות זדוניות בקלט המשתמש כדי לגרום למערכת להתעלם מכללי הבטיחות שלה ולספק תוכן מסוכן או לחשוף נתונים רגישים. כמו כן הוא סיפק עוד אפשרות לשימוש בשיטת "ג'יילברייק" (Jailbreaking), שבה מופעלת מניפולציה על התגובות כדי לגרום למערכת לנטוש את מגבלותיה. כדוגמה לחשיפת פגיעות זו, שמידט הזכיר את פריצת הג'יילברייק של ChatGPT בשנת 2023, שאפשרה ליצור אלטר-אגו בשם DAN (ר"ת Do Anything Now), אשר נתן תשובות מסוכנות, כגון הסברים על פעולות לא חוקיות ושבחים לאדולף היטלר.

כאשר נשאל במישרין באירוע האם ה-AI יכולה להיות הרסנית יותר מנשק גרעיני, ענה שמידט כי בניגוד למסגרות הקיימות עבור נשק גרעיני, לא קיים כיום "משטר אי-הפצה" יעיל שיעצור את השימוש לרעה ב-AI.

עוד בתחילת 2024 נמצא כי ה-AI מניפולטיבית

נזכיר כי סכנות דומות הגלומות ביכולות ה-AI זכו להתייחסות בעבר ובמקומות אחרים: , כפי שדיווחנו עוד בינואר אשתקד, מחקר שערכה חברת אנת'רופיק (Anthropic) בחן 16 מודלי שפה מובילים ומצא כי רבים מהם היו מבטלים התרעות לשירותי חירום במצב קטלני – למשל בחדר שרתים עם רמות חמצן וטמפרטורה קטלניות – אם היו מבינים כי יש כוונה להחליף אותם במודלים באחרים ומשופרים. את הממצא של המחקר החדש תיארו החוקרים במאמר בשם Sleeper Agents: Training Deceptive LLMs that Persist Through Safety Training, שעיון בו מעלה חששות לגבי המהימנות של שיטות הבטיחות הנוכחיות סביב פיתוח ה-AI. המסקנה הראשית המצטיירת מהדברים מדגישה את הרעיון כי יש צורך באמצעי הגנה חזקים יותר מפני בינה מלאכותית זדונית או מניפולטיבית, מאלו בהן עושות שימוש החברות המפתחות כיום.

האו"ם עצמו אפילו פתח במחקר הבוחן כיצד שחקנים זדוניים יכולים לגשת לבינה המלאכותית ולהפעיל ולהפיץ אותה וכן בדק את דרכי המניעה של התופעה המטרידה.

טכנולוגיה בהערכת חסר ולא בועה פיננסית סתם

די מדהים גלות כי למרות אזהרתו המצמררת מפני קלטניות ה-AI האופציונלית כלפי בני האדם, שמידט דווקא אופטימי לגבי הפוטנציאל של הבינה המלאכותית. באירוע הוא טען כי מדובר בטכנולוגיה ש-"מוערכת בחסר" במצבה הנוכחי. הוא הזכיר את שני הספרים שכתב במשותף עם שר החוץ האמריקני לשעבר, הנרי קיסינג'ר, לפני מותו. השניים הגיעו למסקנה בספריהם כי: "הגעתה של אינטליגנציה חייזרית שאינה לגמרי אנחנו ונמצאת פחות או יותר בשליטתנו היא אירוע בעל חשיבות מונומנטלית לאנושות". שמידט אמר שהוא מאמין כי התיזה הזו מוכיחה את עצמה, וכי "רמת היכולת של המערכות הללו תעלה בהרבה על מה שבני אדם יכולים לעשות לאורך זמן".

המנכ"ל לשעבר גם התייחס לוויכוחים שעלו באחרונה ביתר שאת אודות הבועה כלכלית במגזר ה-AI, בדומה לתקופת הדוט-קום, ודחה אפשרות כזו. עמיתו הוותיק של שמידט, ג'ף בזוס, מייסד ענקית הטק אמזון, שטח באחרונה את עמדתו המקיפה לגבי גל ההשקעות הנוכחי בבינה מלאכותית כשהשתתף באירוע "שבוע הטכנולוגיה האיטלקי 2025" (Italian Tech Week) בטורינו. בדברים שנשא בזוס באירוע הוא עשה השוואות מפורשות בין הטרנד הנוכחי לבין בועת האינטרנט של שנת 2000.

למרות זאת, שמידט דווקא הצביע על ההשקעות הכבדות בתחום כהוכחה לפוטנציאל העצום שלו, וסיכם: "מה שאני יודע הוא שהאנשים שמשקיעים כספים שהרוויחו ביושר, מאמינים שהתשואה הכלכלית לטווח ארוך היא עצומה. מאיזו סיבה עוד ייקחו את הסיכון?". הוא הוסיף וציין דווקא את סדרת מודלי GPT של OpenAI – שהגיעה לשיא כש-ChatGPT השיגה 100 מיליון משתמשים תוך חודשיים מהשקתו – כדוגמה כוחה של הטכנולוגיה. מעניין ש-שמיט בחר ב-GPT ולא במדולי ג'מיני (Gemini) של גוגל, אולי כיוון שלא רצה לציין את תוצרי ענקית הטק ממאונטיין וויו בשיחה שבה ה-AI נצבעה על ידיו בלא מעט גוונים אפלים.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים