"החשש אינו מבינה מלאכותית חכמה – אלא דווקא מבינה מלאכותית טיפשה"

"אנו ניתן למכונות את הזכות לקבל החלטות חיים ומוות, אך הטכנולוגיה הנוכחית אינה מסוגלת לקבל החלטות נכונות", כך לדברי פרופ' טובי וולש, מנהל קבוצת מחקר ב-wnsw, אוניברסיטת ניו סאות' וולס

פרופ' טובי וולש, מנהל קבוצת מחקר ב-wnsw, אוניברסיטת ניו סאות' וולס. צילום: יח"צ

חוקרים מובילים מתחום הרובוטיקה והתבונה המלאכותית משתי מדינות בולטות בחבר העמים הבריטי – קנדה ואוסטרליה, חתמו לאחרונה על מכתבים פתוחים הקוראים לראשי הממשלות לנקוט עמדה כנגד הפיכת בינה מלאכותית לנשק.

בראיון לאנשים ומחשבים מסביר פרופ' טובי וולש, מנהל קבוצת מחקר ב-wnsw, אוניברסיטת ניו סאות' וולס, כי המכתב הוכן לקראת ועידת פירוז הנשק של האו"ם שהתקיימה בז'נבה בחודש נובמבר 2017.

צילום ועריכת וידיאו: יוסי ציפקיס

עד כה חתמו 19 מדינות על איסור פיתוח של נשק אוטונומי; אלג'יריה, ארגנטינה, בוליביה, צ'ילה, קוסטה ריקה, קובה, אקוודור, מצרים, גאנה, גואטמלה, הוותיקן, מקסיקו, ניקרגואה, פקיסטן, פנמה, פרו, ונצואלה, זימבבואה והרשות הפלסטינית.

כלי נשק אוטונומיים מתוארים גם כרובוטים רוצחים, כדי לצרוב תיאור שלישי במוחם של מרבית בני האדם. "איננו מדברים על מחסל בנוסח קולנועי של 'שליחות קטלנית'", מסביר פרופ' וולש, "אלא טכנולוגיות פשוטות בהרבה שניתן יהיה ליישם בתוך שנים ספורות. למשל רחפן טורף שיטוס מעל שמי עיראק ללא הנחיה מרחוק של אדם אלא באמצעות מחשב. כעת למעשה, מחשב יוכל לקבל את ההחלטה הסופית לחיים ולמוות – האם לירות את הטיל – או לא".

לדבריו, "אינני חושש מבינה מלאכותית חכמה, אלא דווקא מבינה מלאכותית טיפשה. אנו ניתן למכונות את הזכות לקבל החלטות חיים ומוות, אך הטכנולוגיה הנוכחית אינה מסוגלת לקבל החלטות נכונות".

"בטווח הארוך, כלי נשק אוטונומיים יקבלו יכולות גדולות יותר – אך אני מודאג שמישהו יהפוך אותם לכלי נשק שיערערו את הסדר הגיאופוליטי, ולבסוף יהפכו לעוד סוג של נשק להשמדה המונית. המכתב האוסטרלי הופץ בו זמנית עם המכתב הקנדי שהופנה לראש הממשלה ג'סטין טרודו, עליו חתמו שניים ממייסדי תחום הלמידה העמוקה והבינה המלאכותית – ג'פרי הינטון ויהושוע בנג'יו.

מהפכה צבאית שלישית

"אני ארגנתי את המכתב האוסטרלי שעליו חתמו 122 מדענים ובהם עשרות דיקנים ומנהלי מחלקות אוניברסיטאיות, וכן פרופסורים ל-AI ורובוטיקה", אמר וולש.

במכתבים כותבים החוקרים כי נשק אוטונומי קטלני הנעדר בקרה אנושית, נמצא בצד הלא-נכון של המוסר. לדברי פרופ' וולש, הם פנו לראשי מדינתם שיתחייבו לעבוד עם מדינות אחרות כדי לכלול את הנשק האוטונומי כאחד מהפיתוחים האסורים, בדומה לנשק ביולוגי ונשק כימי.

הוא אומר כי "האו"ם מקשיב לקולות הללו, שנשמעים כבר מספר שנים והוא מגיב. אבל כמו כל הדברים בדיפלומדיה, ההתפתחות אינה מהירה".

בדצמבר 2016, לאחר שלוש שנים של שיחות לא פורמליות, החל האו"ם בסדרת שיחות רשמיות בתוך קבוצה של מומחי ממשלות שכללו אנשי טכנולוגיה, משפט ומומחים פוליטיים שנבחרו על ידי המדינות החברות להמליץ על פעולה, אך לא לשאת ולתת על הסכם איסור הפצת נשק אוטונומי.

הסכנה באי קיומו של הסכם כזה, אומר פרופ' וולש, "היא שיתפתח מירוץ חימוש לפיתוח כלי נשק אוטונומיים חזקים יותר ויותר. זו תהיה מהפכה צבאית שלישית – אחרי המצאת אבק השריפה ופיתוח פצצות האטום. המהפכה השלישית הזו תהווה צעד נוסף במהירות וביעילות שבהן נשק כזה יוכל להרוג".

"מתכנת אחד יכול לשלוט על צבא שלם", הוא מסביר. "כל כלי הנשק ההמוניים כבר אסורים בפיתוח, או בתהליכי איסור כזה – כלי נשק אטומיים, כימיים וביולוגיים. אנו חייבים להוסיף את כלי הנשק האוטונומיים לרשימה זו, שמבחינה מוסרית איננו מסוגלים לקבל".

מי מפתח נשק כזה?
ארצות הברית, סין, רוסיה, בריטניה ומדינות מתקדמות אחרות, כולל ישראל.

"חומר הגלם" של פצצתAI  הם אנשים מוכשרים. האם ארגוני טרור עלולים לשלם להם כדי לפתח נשק כזה? איך נוכל לבקר זאת?
"הדרך לבקר כלי נשק אלה היא אותה דרך שבה אנו מבקרים טכנולוגיות אחרות כגון נשק כימי ונשק ביולוגי. לא יכולנו להפסיק לקדם את הכימיה, אך הפכנו ללא קביל מוסרית את השימוש בנשק כימי, ונאסר על יצרניות נשק למכור אותם. בדרך זו הם לא נמצאים למכירה וגם לא זמינים בשוק השחור, ולכן השימוש בהם מוגבל ביותר. אנו יכולים לקוות שאותו הדבר יקרה גם עם הנשק האוטונומי".

"איננו יכולים לעצור את פיתוח הבינה המלאכותית. היא יכולה לשמש לצרכי שלום רבים כגון מכוניות אוטונומיות, אך אנו יכולים להפוך ללא מוסרי ולא מקובל שימוש בהם להרוג, כפי שעשינו במקרה של כלי נשק כימיים וביולוגיים. בכך אני מקווה, נהפוך את העולם לבטוח יותר".

מה אתה יודע על הנעשה בישראל בתחום זה?
"
ישראל לא תהיה בטוחה אם וכאשר נשק אוטונומי יתקיים. הם יצטרכו להגן על עצמם מפני כלי נשק איום זה".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים