האם הבינה המלאכותית תוכל באמת להתמודד עם דילמות מוסריות ואתיות?

האם הטכנולוגיה המתפתחת בקצב כה מהיר תצמצם את מרחב הפעילות שלנו, בני האדם? האם תתפתח תפיסה שונה - "רציונלית" - שתמשיך את התנהגות התאגידים הגדולים שכבר עכשיו שולטים על חיינו ותעצים אותם לכדי שליטה מוחלטת?

ד"ר אלון הסגל, ראש התוכנית לניהול תשתיות מידע בפקולטה ללימודי היי-טק במרכז ללימודים אקדמיים באור יהודה. צילום: ניב קנטור

פיתוח תחום הבינה המלאכותית מתעצם והולך. כבר כיום, התאגידים הגדולים משקיעים סכום של כ-664 מיליון דולר על פיתוחים שונים של בינה מלאכותית, אך כבר עכשיו אנחנו רואים את השינוי הגדול, ובאיחוד האירופי מצפים כי פלח השוק יגדל ל-38.8 מיליארד דולר בתוך חמש שנים.

אבל רגע – אנחנו בתחילתו של עידן חדש, ולא מעט מדענים כבר מבקשים לעבור את פיתוח האלגוריתם המאפשר פעולה מתוחכמת של בינה מלאכותית ל-"תובנה".

החלו כבר הניסיונות ללמד לרובוטים "להבין" דילמות מורכבות ולהסיק מהם אפילו – לא תאמינו – על המוסר האנושי. אבל במקביל, כבר מתחילים לשמוע קולות אזעקה מפי אנשים מרכזיים המעורבים בפיתוח הטכנולוגיה.

להתמודד עם הטמעת ערכי מוסר אנושי במערכות בינה מלאכותיות

מתברר שחששות אלו עולים גם בראשי הממשל האמריקני, שהזמין בשנה שעברה מספר סדנאות כדי להבין איך מתמודדים עם הטמעת ערכי מוסר אנושי במערכות בינה מלאכותיות.

גם ביל גייטס, סטיב ווזניאק, ואילון מאסק מתייחסים ומתריעים על כך בצורה ישירה. סטיבן הוקינג מדבר על איום קיומי. אבל מי באמת אלו האמורים לקבוע את "הסגנון המוסרי" הנדרש לתכנות ה-AI העתידית? האם הממשלות? המתכנתים? התאגידים השולטים כיום על הפיתוח של בינה מלאכותית למינה?

מחקרים שונים נעשו ושיטות שונות פותחו כדי להבין איך משלבים AI וערכי מוסר. בייחוד באלו מקרי קיצון בהם מעורבים חיי אדם. גם אצלנו, במכון לחדשנות טכנולוגית, מל"א, אני חבר בצוות מחקר בראשותו של פרופ' ניב אחיטוב הדן באפשרות לפתח אלגוריתם שיוכל לאפשר פעילות מלאכותית אוטונומית תוך כדי התמודדות עם דילמות חברתיות.

מחקר מעניין נוסף שנעשה ב-MIT Media Lab בארצות הברית בשיתוף מעבדת התרבות והמוסר של אוניברסיטת קליפורניה וביה"ס לכלכלה של טול בשם Moral Machine, גילה שרוב העונים על שאלות המתייחסות לדילמות אתיות הניצבות בפני מכוניות אוטונומיות, טענו שיש להם קושי קבלת החלטות המבוססת על יעילות ואיכות לטובת הכלל על פני טובת היחיד. רובם יצאו מתוך הנחה שבינה מלאכותית תחשוב תועלתנית. מדוע שהיא תיקח בחשבון ערכים כמו  שמירת הסביבה, שמירה על חיי כל יצור חי, אם מה שעומד בפניה הוא "סיום משימה בהצלחה"?

במהלך הניסוי של MIT's Moral Machine, התברר שרוב האנשים שענו על השאלון וחיוו דעתם לגבי הדרך החברתית-מוסרית בה על הבינה המלאכותית לנהוג, טענו שמכוניות אוטונומיות תועלתניות הן חשובות מאוד, אך היו מעדיפים שלא לקנות או להיות ליד מכונית שכזאת.

ללכת נגד איכות חיינו וקיומנו

מחקר זה ואחרים מצביע על קיומן של דילמות מוסריות לא מעטות בפיתוח אלגוריתמים העומדים בבסיס הטכנולוגיה החכמה, במקרה זה – המכונית האוטונומית, וכלל לא בטוח שנוכל לקבל את ההחלטות המלאכותיות שיובילו לביצוע חד משמעי של פעילות, גם אם היא עלולה להיות כנגד איכות חיינו או אפילו קיומנו.

האם יכול להיות שדווקא אותה טכנולוגיה המתפתחת בקצב כה מהיר תצמצם את מרחב הפעילות שלנו, בני האדם? האם ההחלטות שילקחו בעתיד על ידי ה AI (בינה מלאכותית) יעלו בקנה אחד עם התפיסה החברתית האתית הנדרשת לחברת בני אדם?

האם יוכל ה-AI להתמודד בצורה נכונה ומתאימה עם דילמות מוסריות ואתיות, או אולי עלולה להתפתח תפיסה שונה, "רציונלית" המתאימה להתנהגות "יעילה" וזו תמשיך את התנהגות התאגידים הגדולים שכבר עכשיו שולטים על חיינו ותעצים אותם לכדי שליטה מוחלטת?

הכותב הינו ראש תוכנית ניהול תשתיות טכנולוגיות. ומנהל אקדמי של המכון לחדשנות טכנולוגית, הפקולטה ללימודי היי-טק, מל"א. 

תגובות

(1)

כתיבת תגובה

האימייל לא יוצג באתר.

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

  1. יהודית

    הסוגיות האתיות ללא ספק חשובות .יחד עם זאת סביר להניח שההתקדמות הטכנולוגית תפסח על חלק מבעיות האתיקה כיוון שכך היא דרכו של העולם כאשר אנו קשורים לקדמה טכנולוגית. בעיה שלא נפתרה שנים.

אירועים קרובים