שירת הברבור של סטיבן הוקינג בסימן פרידה מהאנושות

בשבוע שעבר נפרד העולם מהאסטרופיזיקאי הנודע ● אך בפרידה כמו בפרידה, השאיר אותנו התאורטיקן האנגלי עם התובנה כי "הבינה המלאכותית תהיה חדורת מטרה - ואם מטרות אלה לא מסתדרות עם האנושות - היא פשוט תחסל אותה"

סטיבן הוקינג. צילום: BigStock

כשמחלקים את העולם למצדדי מהפכת ה-AI ומתנגדיה, אין ספק שסטיבן הוקינג –  שהלך בשבוע שעבר לעולמו – יפול לתוך הקטגוריה של מבקרי הבינה המלאכותית. ואולם התמונה מורכבת, משום שניתן ללמוד מהביקורת המלומדת על סכנות סצפיפיות הצפויות לנו, ולנסות למנוע אותם.

הוקינג צוטט בשנים האחרונות כמה פעמים כנגד בינה מלאכותית כללית – הכיוון שאליו מופנים המשאבים בכל הקשור לפיתוח מערכות AI. לטענתו תבונת-על (Superintelligence) עלולה לסמן את סופה של האנושות. הבינה המלאכותית תהיה חדורת מטרה, ואם מטרות אלה לא מסתדרות עם האנושות, היא פשוט תחסל אותה.

"אתה כנראה לא שונא נמלים מרושע שצועד על נמלים מתוך זדון, אבל אם אתה אחראי על פרויקט הקמת סכר להפקת חשמל כשקן נמלים באזור עומד להיות מוצף – חבל על הנמלים", הוא כתב ב-2015 ב-Reddit. "בואו לא נכניס את האנושות למצב של הנמלים האלה".

AI: אויב או חבר?

אבל לא רק הרובוטים מהווים סכנה לאנושות, אלא גם בני אדם שישתמשו בה ככלי לדיכוי של שאר האוכלוסיה והעמקת אי-השוויון, וכן הזהיר מפני מערכות נשק מבוססות AI. בכל אופן, מערכת הבינה המלאכותית אינה זדונית בהגדרתה אך השימוש בה עלול להיות זדוני, אם לא יוכלו לשלוט על כוחם באופן יעיל.

אבל בו בזמן היה הוקינג אופטימי בתועלת שהבינה המלאכותית עשויה להביא לאנושות אם נבנה אותה כראוי. הוא הציע לפתח שיטות עבודה מומלצות שיובילו ליצירת תבונה מלאכותית מועילה.

מרכיב חשוב נוסף בביקורת של הוקינג על ה-AI הוא ספקנות בריאה כלפי אלו הצופים את הגעת בינת העל במסגרת זמן מסוימת. הבולט שבהם הוא כמובן ריי קורצווייל הידוע בתיאורית הסינגולריות. "אין הסכמה בין חוקרי ה-AI כמה זמן ייקח לבנות  AI ברמה של בני אדם ומעבר לה, אז בבקשה אל תסמכו על מי שטוען בוודאות שזה יקרה בחיים שלך או שזה לא יקרה בחיים שלך", הוא כתב.

אחת מהופעותיו הפומביות האחרונות של הוקינג היתה בכנס Web Summit שנערך בסוף 2017 בליסבון. הוא בחר להקדיש את כל ההרצאה לבינה המלאכותית.

להילחם באנושות ולהרוס אותה

כבר היום, הסביר, "אנו מודאגים מכך שמכונות חכמות תוכלנה להחליף עבודות שהיום נעשות בידי בני אדם ולהרוס את חייהם של מיליוני אנשים. הבינה המלאכותית עלולה להחליט להילחם באנושות ולהרוס אותנו".

מה התשובה? לדברי הוקינג, "יש לשלוט על הבינה המלאכותית ולגרום לה לעבוד עבורנו וכדי להפחית עד כמה שאפשר את הסיכונים, אנו צריכים להתקין מערכות ניהול יעילות המבוססות על הנסיון בכל התחומים הקשורים לפיתוח הבינה המלאכותית. ברור שכל מגזר בכלכלה יצטרך לשלב אמצעים למניעת נזקים, אבל בכל הקשור ל-AI זה חיוני ביותר".

חשוב להבין שהוקינג לא היה טכנופוב. בשנים האחרונות הוא היה שותף ליוזמת Breakthrough Starshot ביחד עם המיליארדרים יורי מילנר ומארק צוקרברג.

הרעיון של תוכנית מחקר והנדסה בשווי 100 מיליון דולר הוא  להביא להוכחת היכולת להשתמש בקרני אור כדי לשגר חללית ננו-מטרית – בשלב ראשון במהירות של 20% ממהירות האור. משימה כזו תוכל להגיע לקרבת אלפא-קנטאורי בתוך 20 שנה מיום שיגורה.

רעיון זה שואל פיתוחים מתחום מיזעור מערכות המחשוב, ויאפשר לשלוח אלפי חלליות בגודל טלפון סלולרי, שיוכלו לנווט דרכם לאלפא קנטאורי, לצלם את כוכבי הלכת במערכת השכנה ולשדר אותן לכדור הארץ, בטווח זמן דומה לזה של פרויקטים בתוך מערכת השמש כדוגמת ניו-הוריזון שנדרשה לתשע שנים כדי להגיע לפלוטו, או חלליות שהקיפו שנים את שבתאי וירחיו – פרויקטים כדוגמת קאסיני שנמשכו למעלה מ-20 שנה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים