מלחמה ובינה: על הסייגים המוסריים של AI בקרב

השימוש בבינה מלאכותית בשדה הקרב היה באחרונה בכותרות, עקב הקרב בין הפנטגון לאנת'רופיק ● אלא שחברת ה-AI מנסה לסגור את האורווה אחרי שהסוסים כבר ברחו, והיא הופכת להיות מרוץ החימוש החדש

שימוש בבינה מלאכותית בשדה הקרב הוא לא שאלה של האם או מתי, אלא של איך.

פגישתם הראשונה של פיט הגסת', שר ההגנה האמריקני – או, בתוארו העדכני, שר המלחמה, ודאריו אמודיי, מנכ"ל אנת'רופיק, החברה שמאחורי קלוד, לא התנהלה על מי מנוחות. אמודי ביקש להביע את חששותיו לגבי הסכנות הקיימים בכלי נשק אוטונומיים מונחי בינה מלאכותית, אבל הגסת' לא היה מוכן לשמוע וקטע אותו בגסות: "שום מנכ"ל לא הולך להגיד למטוסי הקרב שלנו מה הם יכולים או לא יכולים לעשות".

הפגישה הזו נערכה לפני כשבועיים. מאז, הקרע בין שני האישים, ובין הממשל הפדרלי של ארצות הברית לחברת הבינה המלאכותית, רק החמיר. הלוז של הקרע הזה הוא סוגיה מוסרית שהייתה צפויה לצוץ במוקדם או במאוחר גם בהקשר של ארצות הברית (היא כבר עלתה לא אחת בהקשר של ישראל, סביב המלחמה בעזה): האם זה מוסרי לעשות שימוש ב-AI למטרות צבאיות ולמטרות הרג? בעניין הזה, אמודיי והגסת', והגופים שהם עומדים בראשם, לא יכולים להיות רחוקים יותר זה מזה.

שר ההגנה של ארצות הברית, פיט הגסת'.

שר ההגנה של ארצות הברית, פיט הגסת'. צילום: Joshua Sukoff, ShutterStock

מצד אחד, הפנטגון דרש לקבל שימוש בקלוד "לכל שימוש חוקי", אלא שמצד שני, אנת'רופיק מתעקשת, וכוללת את זה בחוזים שלה, שלא ייעשה שימוש במודלים שלה לשני צרכים בעייתיים: מעקב המוני בתחומי ארצות הברית (מה שמכונה גם "מדינת מעקב") ושילוב הבינה המלאכותית שלה במערכות נשק אוטונומיות לחלוטין, כלומר כאלה שיכולות לקבל החלטות על הפעלת כוח קטלני והרג, ללא אדם בלולאה. זהו קו אדום מבחינתה.

את זה הגסת' לא היה מוכן לקבל – והתגובה הייתה חריפה: הוא הכניס את אנת'רופיק לרשימה השחורה של ביטחון המולדת. עקב כך, לא רק שמשרד ההגנה/מלחמה ביטל את ההתקשרות החוזית שלו עם אנת'רופיק – כל הממשל הפדרלי הגיב באופן דומה וניתק קשרים עם החברה. הגסת' עשה שימוש קיצוני בסמכויותיו, באופן שיותר מתאים למדינות טוטליטריות, והגדיר את אנת'רופיק "סיכון בשרשרת האספקה" – צעד כמעט חסר תקדים כלפי חברה אמריקנית. נשיא ארצות הברית, דונלד טראמפ, לא חסך את "שבטו" הלשוני וכינה את מנהלי אנת'רופיק "מטורפים שמאלנים".

ההגדרה של אנת'רופיק כ-"סיכון בשרשרת האספקה" עלולה להשליך לא רק על החוזים שלה עם הממשל הפדרלי, אלא גם על עבודה שלה עם ספקיות אחרות של הממשל, כמו לוקהיד מרטין, אמזון ומיקרוסופט, ומסכנת את מערכת היחסים של החברה עם ענקיות טכנולוגיה אחרות.

תהיה חכם – לא צודק?

לתוך התסבוכת, שאמודיי צעד לתוכה בעיניים פקוחות ומתוך עיקרון, נכנסה מתחרה ישירה: OpenAI. על פי פוסט שפורסם אמש (ב') בבלוג של החברה, היא נמנעה מעימות חזיתי עם הממשל, ולכאורה נתנה לו את מה שהוא רצה. אלא שגם כאן נכנסו כמה סייגים, כדי למנוע שימושים חסרי בקרה בבינה מלאכותית לצרכים מלחמתיים והרג: גם OpenAI עומדת על מניעת מעקב המוני אחרי אזרחי ארצות הברית, אוזרת על הכוונה של נשק אטומי באמצעות ה-AI ומחייבת את מי שחותמים איתה חוזים שהבינה המלאכותית שלה לא תשמש לקבלת החלטות אוטומטיות בעלות השלכות על הדמוקרטיה, כמו "דירוג חברתי" שנעשה, למשל, בסין.

אם אנת'רופיק לא תספק את הכלים האלה לשימושים צבאיים, ואפילו למטרות הרג – אחרים ימהרו לעשות זאת. ובמובן הזה, התפוצה של מודלי הבינה המלאכותית לשימושים מלחמתיים תהפוך להיות המרוץ הגרעיני החדש

OpenAI לכאורה מאפשרת לממשל שימושים רחבים יותר ממתחרתה. ברם, סם אלטמן ושותפיו דאגו לשמר אצלם "מתג כיבוי" באופן הפרישה של הכלים: זו תהיה מבוססת ענן בלבד, עם "מתגי בטיחות" שיהיו בשליטת OpenAI (בניגוד, למשל, למה שעשתה בשעתו NSO כדי לנער מעצמה אחריות, עם התקנות מקומיות של כלי ריגול). כמו כן, אנשי OpenAI יהיו נוכחים בתהליכי קבלת ההחלטות וההפעלה. ויש עוד שלייקעס: שכבת ניסוח חוזית שאוסרת במפורש מעקב אחרי אזרחים אמריקניים, לרבות הצלבות עם מידע אישי שנרכש באופן מסחרי – שזו נקודה, לאור האפשרות שהממשל ישתמש במערכות מידע מצד שלישי, של סוחרי מידע, ויזין את הנתונים לתוך המודל. בפועל, OpenAI הייתה פשוט חכמה – ולא צודקת.

קרב שכבר הוכרע

בשעה שאנת'רופיק זכתה לתשואות אזרחיות על אי התפשרותה על עקרונות מוסריים ביישום בינה מלאכותית (האפליקציה שלה הדיחה בימים האחרונים את ChatGPT של OpenAI מראש רשימת ההורדות בחנויות האפליקציות) – הכלים שלה, שלא ניתן כל כך מהר להחליפם, עדיין משמשים את צבא ארצות הברית. הוול סטריט ג'ורנל דיווח בראשית השבוע שפיקוד המרכז האמריקני, סנטקום, כמו גם פיקודים אחרים שלו, משתמשים בקלוד בתכנון וביצוע התקיפות באיראן. לובשי המדים עושים בו שימושים מודיעיניים, זיהוי מטרות וסימולציות קרב – תחומים שבהם הבינה המלאכותית בהחלט יכולה לספק ערך מוסף לשימושים צבאיים.

ה-AI מסייעת לתקיפות האמריקניות באיראן.

ה-AI מסייעת לתקיפות האמריקניות באיראן. צילום: Just Life, ShutterStock

בעניין הזה, נראה שהקרב, תרתי משמע, כבר הוכרע: הבינה המלאכותית הפכה להיות חלק אינטגרלי משדה הקרב ושימושי הרג – גם אם היוצרים שלה עדיין מנסים לסגור את דלתות האורווה אחרי שהסוסים כבר, למעשה, ברחו.

במובן הזה, הצדק הוא אולי עם טראמפ: אנשי אנת'רופיק יכולים להידרש לדקדוקים מוסריים עד מחר. בפועל, אם הם לא יספקו את הכלים האלה לשימושים צבאיים, ואפילו למטרות הרג – אחרים ימהרו לעשות זאת. ובמובן הזה, התפוצה של מודלי הבינה המלאכותית לשימושים מלחמתיים תהפוך להיות המרוץ הגרעיני החדש – כשגם מדינות יריבות של המערב כמו רוסיה וסין לא טומנות ולא יטמנו את ידיהן בצלחת. ואצלן, אין לחברות שעובדות עם הממשל מצפון, סייגים או חיבוטי מוסר.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים