על דילמות מוסריות ובינה מלאכותית

האם בכלל כדאי לתת לבינה המלאכותית להחליט החלטות מוסריות? האם נוכל להתחייב על כך שהיא או אלו שמפעילים אותה לא יעשו שימוש לא "ראוי" במידע? ● עד היום לא ידוע על מנגנון טכנולוגי שיבטיח שמירה על אתיקה בסיסית אוניברסלית

ד"ר אלון הסגל, מרצה בכיר בפקולטה ללימודי היי-טק במרכז ללימודים אקדמיים באור יהודה. צילום: מחלקת יחסי הציבור של איגוד האינטרנט הישראלי

הטכנולוגיה החכמה שהתפתחה בתקופה של חמש השנים האחרונות מבוססת על מערכות בינה מלאכותית היודעות לקבל מידע מרשת של נקודות קצה, הניתנות לזיהוי באופן חד-חד ערכי תוך שימוש בחיבוריות IP.

כל חיבור שכזה יכול לשדר מידע לבסיס מידע מרוכז [ענן] להגיע אל הבינה המלאכותית, לעבור ניתוח והפקת משמעויות על בסיס אלגוריתמים מורכבים המבוססים על למידת מכונה ורשת נוירונים ולקבל הוראות לביצוע בתהליך של אוטומציה, מתוך רצון להעתיק את שיטת החשיבה האנושית בתהליך קבלת החלטות יומיומית.

טכנולוגיות אלו החלו כבר בתהליך של התאמה למכשור ושירותים לתעשייה, לאורח החיים בבית, לצרכי העיר החכמה, תוך כדי יצירה של חסכון בזמן וקביעת עיתוי נכון, חיסכון באנרגיה, ניטור פיננסי, בריאות ואיכות חיים, איתור תקלות וסכנות.

בעד

אנשי מקצוע בתחום ממשק אדם-מכונה, אנשי שיווק ומדענים מתחום הבינה המלאכותית, טוענים שיש להתאים את תהליך עבודתה של הבינה המלאכותית לדרכי הפעולה והחשיבה האנושיים על מנת להקל על תהליך ההטמעה.

טכנולוגיות אלו לטענתם, יפעילו אוטונומית פעילויות שפעם נעשו על ידי בני אדם ותכליתן שיפור איכות החיים של בני האדם, ולכן יש להתאימן לא רק רציונלית אלא גם רגשית.

לא מספיק יהיה להראות יעילות, הורדת תקלות ושיפור רווחים. כדי לבצע התאמה, רוגע ומוכנות לשימוש אצל המשתמשים בני האדם, יש בין השאר לפתח יכולות המותאמות להתנהגות האנושית כאמפתיה, שיתופיות וגישה חיובית אצל הבינה המלאכותית ולאפשר לה יכולת התמודדות עם דילמות חברתיות, שיפוט מוסרי והחלטות אתיות הנדרשות במצבים של חוסר וודאות רציונלית.

על פי לורנס קולברג, הרמה הקונבנציונלית של התפתחות המוסר החברתי אצל אנשים מחייבת ציות למוסכמות, לחוק ולסדר חברתי.

ברמה זו יש חשיבות לדעות של אחרים ולציות לחוקים חברתיים – לא בגלל אינטרס אישי אלא מתוך אמונה ששמירה על המערכת החברתית חשובה להמשך יחסים אנושיים חיוביים וסדר חברתי.

לטענת קולברג, רוב בני האדם נמצאים ברמה מוסרית זו. וכדי שלבני האדם יהי נוח לקבל שירותים חכמים מערכתיים (כמו בית חכם, עיר חכמה, מפעל תעשייתי חכם, המבוסס על פעילות אוטומטית המנוהלת על ידי בינה מלאכותית), עלינו להיות בטוחים שגם הבינה המלאכותית יודעת את החוקים ומצייתת לדעת הרוב המוסרי.

ללא ידיעה זאת, בני האדם עלולים לפחד מבינה מלאכותית שאינה מודעת לצדק המוסרי הבסיסי הנדרש.

נגד

יש הטוענים שמערכות טכנולוגיות – ויהיו החכמות ביותר – הינן אוסף של תכונות או פונקציות מועילות שתוכנתו בידי קבוצת אנשים אחת, אך יכולות במקביל להכיל אוסף של תכונות בלתי מועילות או פונקציות מזיקות לקבוצת אנשים אחרת, היחס בין הפונקציות המועילות לפונקציות המזיקות מהווה מדד לאידיאליות של המערכת.

האם נוכל לומר אי פעם שביכולתנו ליצור מערכת "אידאלית" גם בתחומים הנחשבים "רגשיים"? "מוסריים"? תארו לעצמכם שמערכת חשמל חכמה, המבוססת על קבלת החלטות אלגוריתמיות של בינה מלאכותית כלשהי, תחליט להפסיק את אספקת החשמל כדי להחשיך את הבניין, כך פתאום? וכל זאת, מאחר והיא קיבלה התראה והחליטה לפרש אותה כמצב מלחמה המחייב החשכה.

והחשכה עלולה להיות רק השלב הראשון. האם נוכל לסמוך על מערכות חכמות שיוכלו לקבל החלטות המתחשבות בצרכים חברתיים? ואם הצרכים החברתיים סותרים?

מה קורה עם האנשים הנמצאים במעלית בדיוק בזמן שבו המערכת מקבלת החלטה על הפסקת החשמל? ומה קורה עם אנשים מוגבלים הנסמכים על אספקת חשמל סדירה כדי לנשום? האם נוכל לאפשר לבינה המלאכותית להחליט להקריב את המעטים ו-"המוגבלים" על פני שימור חיי אדם רבים ו-"בריאים"?

האם בכלל כדאי לתת לבינה המלאכותית להחליט החלטות מוסריות? האם נוכל להתחייב על כך שהבינה המלאכותית או אלו שמפעילים אותה לא יעשו שימוש לא "ראוי" במידע?

האם אנחנו מוכנים לאבד פרטיות לטובת "התאמה אישית" של מוצרים או שירותים שתעשה על ידי בינה מלאכותית? האם אנחנו בטוחים ב"-כנות" ו-"מוסריות" ההחלטה ופעולה של הינה המלאכותית?

האם הטכנולוגיה האוטונומית תדע להבחין בין צורך מיידי של אדם לבין פגיעה בזכותו של אדם? האם נסכים לתת לבינה מלאכותית להתמודד עם דילמות הנקראות Trolley Dilemma – מסוג הדילמות של הפסד בכלמקרה "No-Win Scenarios", שבהן יש צורך להחליט בין Killing לבין  Letting die? בהם תצטרך לבצע העדפה של חיים (או מוות) של אדם אחד על פני מספר אנשים?

האם נסכים להטות רכבת הדוהרת לכיוון חבורת אנשים למסלול צדדי שם ייהרג רק אדם אחד? האם מותר או צריך לא להתערב במצב של גרימת מוות אפילו לאדם אחד? עד היום לא ידוע על מנגנון טכנולוגי שיבטיח שמירה על אתיקה בסיסית, אוניברסלית.

ד"ר אלון הסגל, ראש תוכנית ניהול תשתיות טכנולוגיות, הפקולטה ללימודי היי-טק במל"א, ירצה בנושא זה בכנס הפסגה הדיגיטלית של אנשים ומחשבים, ב-7 בספטמבר.

תגובות

(2)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

  1. שושני

    בינה מלאכותית תיצור בעיה בקרב עובדי הלואו טק שכן חלקם יהיו מיותרים. לכן על שוק העבודה להסתגל לקראת המצב ולמצוא חלופות ראויות כדי ששיעור התעסוקה לא ירד משמעותית.

אירועים קרובים