"הרובוטים עשויים להחליף כל נותן שירות אפשרי – ויש בכך דאגה חוקית ומשפטית"

כך סיפר ד"ר דב גרינבאום, מנהל מכון צבי מיתר לחדשנות טכנולוגית, משפט ואתיקה ● השאלה בה עסקה הרצאתו הייתה "האם בינה מלאכותית היא כלי, או שזה סוג חדש של יצור שיש לו מחויבויות מוסריות?"

ד"ר דב גרינבאום, מנהל מכון צבי מיתר לחדשנות טכנולוגית משפט ואתיקה. צילום: עדי כהן צדק

אחד המפעלים האחרונים של עו"ד צבי מיתר, שנפטר לפני כחצי שנה, היה הקמת מכון צבי מיתר לחדשנות טכנולוגית, משפט ואתיקה, בביה"ס רדזינר למשפטים במרכז הביתנחומי בהרצליה. שבוע לפני מותו הפתאומי, הוא עוד הספיק לשלוח לראש המרכז, ד"ר דב גרינבאום, ספר בשם "עלייתם של הרובוטים" (Rise of the Robots), המעלה את השאלות המשפטיות החשובות כגון- מה קורה אם רובוט פוגע במישהו, מי אשם? הבעלים, המתכנת? ומה אם הרובוט הוא רובוט לומד, והתכנות הראשוני כבר אינו הגורם היחיד?

כך סיפר ד"ר גרינבאום, בהרצאה שנשאה את הכותרת "השלכות משפטיות ואתיות בזירת הבינה המלאכותית", במסגרת כנס BI לזכרו של צבי מיתר.

לדברי גרינבאום, רבים חוששים מעידן שבו בינה מלאכותית תנהל כל שלב בחיינו. לאחרונה התפרסם מכתב שכתבו 20 אלף איש, ובהם מפורסמים כמו סטיבן הוקינג אשר דיבר על תחילת הסוף של המין האנושי, נעם חומסקי החושש ממתן כוח יתר לרובוטים, ואילון מאסק שאפילו צוטט כאומר שזה "האיום הקיומי הגדול ביותר על המין האנושי". ולא מדובר באנשים שפוחדים מטכנולוגיה.

מקצועות שיעלמו – גם התכנות

"הרובוטים עשויים להחליף כל נותן שירות אפשרי: סוכני ביטוח, משפטנים ואפילו מתכנתים – דרפ"א ביחד עם אוניברסיטאות מובילות בארצות הברית מובילים פרויקט שבו רובוטים גם יתכנתו את הדורות הבאים שלהם. אנחנו יכולים לתכנת בינה מלאכותית שתתעלם מהבקשות שלנו", הסביר גרינבאום. "בינה מלאכותית משמשת בכיפת ברזל, ובמידה מסוימת יש בכך דאגה חוקית, משפטית. עדיין צריכים אנשים בלופ, כי אחרת מי האחראי? ואולם אנשים מוסיפים טעויות למערכת. דוגמה נוספת מהמישור הצבאי היא המל"טים שהיום כל כך חכמים שלא רק שהם מזהים חשודים, הם גם יכולים לירות בהם".

"מסתבר שהדאגה הזו אינה חדשה, ולא היתה זו רק נחלת סיפורי המדע הבדיוני" אומר גרינבאום. "אלכסנדר סולז'יניצין, הסופר הרוסי מתנגד המשטר, כתב בספר משנת 1968, עשור לאחר שנטבע המונח בינה מלאכותית, כי הוא מודאג מכך שהממשלה תוכל לאסוף את כל שיחות הטלפון שלנו ותשתמש בבינה מלאכותית כדי לדעת מה אנו אומרים – וזה בדיוק מה שה-NSA עושה, ועוד בארצות הברית."

"היבט נוסף של הבינה המלאכותית, הוא אותו הקוף שחטף מצלמה מחוקר וצילם תמונת סלפי. היה דיון בשאלה למי שייכות זכויות היוצרים, לבעל המצלמה או לקוף, ומכיוון שכנראה זה הקוף, היתה בעיה כי זכויות יוצרים שמורות לאנשים (או לתאגידים). וזה עוד מקרה פשוט", הסביר גרינבאום. מה לגבי בינה מלאכותית שתכתוב ספרים, תפיק סרטים"?

מה יקרה אם מערכת בינה מלאכותית גורמת נזק

"לאחרונה נרשם בארצות הברית פטנט על מכונה שתמציא בעצמה פטנטים, הפועלת באמצעות טכנולוגיה המספקת לה יכולת ללמוד ולפתח טכנולוגיה בעצמה. חוק הפטנטים לא יודע כיצד צריךל לפעול במצב כזה, האם הפטנט שייך לאדם שפיתח את המכונה? האם זו המכונה עצמה או אף אחד? וגם דיני מזיקין בתמונה – אם אני גורם למפגע אני אחראי וחייב לפצות על כך, אך מה יקרה אם מערכת בינה מלאכותית גורמת נזק"? שאל גרינבאום

"עוד נושא שכדאי לחשוב עליו הוא מה עושים במקרה של ממשק מוח-מכונה", אמר. "מכניסים שבב למוח של אדם והמוח שולט במכשיר דרך השבב. מה יקרה אם נוסיף לשבב תבונה מלאכותית והוא יופעל למעשה על ידי התת מודע? מה יהיה אם אותו אדם יגרום נזק שלא ברצונו בגלל השבב? האם הוא אשם? האם השבב"?

"ובאשר לאחריות המשפטית", אמר גרינבאום, "יש דרגות שונות של אחריות – למשל לי יש אחריות על חיות המחמד, על הילדים, ועל העובדים שלי – האם מערכת בינה מלאכותית שקולה לבעל חיים מבחינת האחריות? לילד? לעובד? ומה באשר למכונות לומדות היכולות לדבר, האם חלה עליהם הגנת חופש הביטוי"?

"עד רמה מסוימת יש לנו את חוקי הרובוטיקה של אסימוב, אבל הם לא הומצאו על ידי מדען אלא על ידי סופר, ולכן הם לא מלאים", הסביר גרינבאום. "כעת האיחוד האירופי עובד על פרויקט חוקי רובוטיקה – RoboLaw".

לסיום שאל ד"ר גרינבאום, "האם בינה מלאכותית היא כלי, או שזה סוג חדש של יצור שיש לו מחויבויות מוסריות, חוקיות ומשפטיות"?

שאלה שאין עליה עדיין תשובה.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים