על אתיקה ובינה מלאכותית

מה הקשר בין שתי הסוגיות שבכותרת? האם ניתן למנוע הטיות בעת ייצור מערכות טכנולוגיות ושימוש בהן? ואם כן - איך עושים זאת? חוקרים ממעבדות יבמ ומהאיחוד האירופי מנסים להשיב

פרופ' פרנצ'סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית. צילום: יח"צ

"זה שאפשר לעשות משהו עם בינה מלאכותית לא אומר שצריך לעשות אותו", כך אמרה פרופ' פרנצ'סקה רוסי, סגנית נשיאת יבמ לאתיקה של בינה מלאכותית. פרופ' רוסי ופרופ' בארי או'סאליבן מאוניברסיטת קורק באירלנד, המשמש גם כנשיא קבוצת חוקרים לבינה מלאכותית שמייעצת לנציבות האיחוד האירופי, שוחחו על נושא זה עם עיתונאים, במפגש שהתקיים במרכז המחקר של הענק הכחול בציריך. השניים העבירו את דבריהם בווידיאו, משום שהם שהו בזמן השיחה בכנס של האיחוד האירופי בבריסל.

לדברי פרופ' רוסי, "אנשים אוהבים את התועלת שבטכנולוגיות החדשות, אך גם חוששים מהן. יש המון חששות שצריך לענות עליהם. אחד מאותם חששות הוא מהטיה, לעיתים בלתי מודעת. המערכות אמנם מתבססות על לימוד מכונה, אך אם הנתונים שמהם המערכת לומדת והמודל שסביבו מפתחים אותה סובלים מהטיה, אפילו קטנה, ההמלצות שהיא תיתן לא תהיינה הוגנות. כמו כן, על המערכת לדעת להסביר כיצד הגיעה לתוצאה, אחרת אף אחד לא יאמין לה".

"אנחנו, ביבמ, מתכננים את המערכות מהיום הראשון של עיצובן כך שתענינה על הסוגיות האתיות", אמרה. פרופ' רוסי ציינה מספר צעדים שעושים בענק הכחול כדי להגיע למטרה זו: "אנחנו עורכים הדרכות ובאים עם רשימה ארוכה של שאלות שהמתכננים של מערכות כאלה צריכים לשאול את עצמם, על מנת לזהות הטיות ולהתמודד איתן בכל אחד מרכיבי המודל. כמו כן, פתחנו את ה-API's של המערכות כדי להגדיל את השקיפות. אנחנו חוקרים כל הזמן את התחום ומעבירים את תוצאות המחקר לפיתוח המוצרים והשירותים, ומרחיבים את השותפות בנושא עם בעלי העניין. עלינו, כמו גם על ארגונים אחרים, להיות מודעים ליכולות של הבינה המלאכותית, אך גם למגבלותיה".

דוגמאות להטיות

פרופ' או'סאליבן ציין "דוגמה פשוטה מאוד של הטיה, שנעשית בעת תרגום באינטרנט. כך, מטופל צריך לקבוע פגישה עם רופא, והמערכת מניחה באופן אוטומטי שרופא הוא גבר. אלא שכמובן שגם אישה יכולה להיות רופאה. כמו כן, באפריל פורסם מאמר בכתב העת Science, שהראה שבשפות רבות, תארים של אנשים בדרגות גבוהות כמו נשיא, מנהיג או מנהל הם בזכר (למשל בעברית, בדרך כלל – א"ב). נקבות, לעומת זאת, מקושרות לתפקידים אכפתיים או לתפקידי תמיכה. זוהי הטיה שמובנית בשפה עצמה וקשר להתגבר על סוגי הטיות אלה כשזה נוגע לטכנולוגיה ולמחשוב".

הוא הוסיף ש-"יש הטיות אחרות שעולות ממערכות שפועלות באינטראקציה זו עם זו. מיקרוסופט, לדוגמה, פיתחה מערכת צ'טים שהתבססה על ציוצים בטוויטר. בתוך 18 שעות היא נאלצה להוריד את המערכת, משום שהצ'טים שהתנהלו בה הפכו לגזעניים ומעליבים. זה מפני שאנשים משתמשים בטוויטר בשפה מסוג מסוים. חוץ מזה, באה לידי ביטוי הנטייה של אנשים לפרק את המערכת ולנסות לבחון אותה".

"בעיה אחרת של הטיה יכולה להיגרם בהמלצה על מוצר", אמר פרופ' או'סאליבן. "למשל, המערכת של נטפליקס ממליצה לצופה על סרטים דומים לאלה שהוא צפה בהם, ורק עליהם. כך נוצרת בועה. הדבר מסוכן אף יותר בתחום החדשות – אנשים מקבלים רק את החדשות המתאימות לדעה הפוליטית שלהם".

מה הגון? מה מוסרי?

השניים דיברו במהלך השיחה גם על הגינות ומוסריות. פרופ' רוסי אמרה ש-"יש הגדרות רבות להגינות. רעיונות שונים של הגינות מתאימים להקשרים שונים ולמשימות שונות. הגדרה של הגינות יכולה להיות סבירה במשימה אחת, אך לא באחרת. השקיפות יכולה לעזור, כי כך נוכל לדעת כיצד הוחדרה ההגינות למערכת".

לדברי פרופ' או'סאליבן, "אין הסכמה אודות מהו דבר מוסרי ואתי, משום שהדברים הללו תלויים בנורמות חברתיות. בבואנו לבנות מערכות טכנולוגיות אתיות, אנחנו בוטחים בתהליכים שבאמצעותם מייצרים אותן, אבל האם אנחנו סומכים על התאגידים שעושים זאת? צריך לחשוב פחות על אתיקה ויותר על החוסן של המערכות והפרקטיקות של השימוש בהן". פרופ' רוסי אמרה כי "צריך לתת לשוק לעשות את שלו".

הכותב היה אורח החברה במפגש.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים