בינה מלאכותית אחראית: חייבים לדבר על זה ולפלס דרך

דו"ח חדש של ארגון ה-GPAI, שהוא חלק מ-OECD’s Global Partnership οn AI, מדבר על הסכנות והפוטנציאל של השימוש בבינה מלאכותית וסוקר פרויקטים שמימשו בפועל את המלצות המומחים

ד"ר נאווה שקד, ראשת בית הספר ללימודים רב תחומיים, HIT מכון טכנולוגי חולון.

מהפכת הבינה המלאכותית יצרה שינוי משבש בדרך שבה אנו צורכים טכנולוגיה, וכיום היא חלק כמעט מכל סביבת עבודה ושירות. רובוטים מסוגים שונים הם חלק בלתי נפרד מהתעשייה, הרפואה ויישומים חברתיים – זה כבר לא מדע בדיוני. מצופה כי יישומי הבינה המלאכותית, וביחוד הבינה היוצרת, GenAI, יהיו באיכות טובה, מקיימת, המחקה באופנים מרובים את ההבנה, החשיבה והיצירה האנושית.

למרות הרמה הגבוהה של רוב היישומים נראה, כי השמיים הם הגבול וכמות "השמועות והנבואות המאיימות" מגבירה את הדאגה ואת הצורך בחקיקה ובהצבת גבולות ברורים. עוד ברור, כי רמת תוצרי המכונה תלויה רבות באיכות הדאטה שהיא משתמשת בו. בגלל חוסר השקיפות של אלגוריתמי הבינה המלאכותית, התלויים באופי המשימה, ואופן איסוף המידע וכרייתו, יש אתגר גדול לשמור על תוצרים הוגנים ושוויוניים. אנו רואים תלונות לגבי קבלת החלטות במערכות אוטונומיות, שגיאות במערכות אינטראקציה אוטומטיות וכשל, שנובע ממידע חסר או מוטה ומשפיע על התוצרים של המכונה.

בעוד שאתיקה הוא מושג מופשט ותלוי זמן, תרבות וגיאוגרפיה, אנו, העוסקים בתחום, חייבים להעלות שאלות מהותיות על הטכנולוגיה, על הצורך בשימוש רחב או ייעודי, על מקורות המידע שמהם אנו כורים ועל המשמעויות שביצירת סט ערכים – שאלות כמו "האם ניתן ונכון לשלוט בטכנולוגיית הבינה המלאכותית, ואולי אין בכך צורך ממשי כפי שלא נעשה עד כה בטכנולוגיית האינטרנט? ואם כן, איזה סוג פיקוח (רגולטורי, גלובלי) נדרש ומי הוא הגוף האחראי על הפיקוח?"

המונח בינה מלאכותית אחראית (Responsible AI) הוא מושג רחב, הכולל מגוון שיקולים אתיים וחברתיים בעת פיתוח והטמעת מערכות בינה מלאכותית. המושג כולל מגוון רחב של שיקולים. כולל, אך לא רק: גם הבטחה שמערכות בינה מלאכותית לא ישעתקו או יגבירו הטיות, הגנה על פרטיות וביטחון של המשתמש, הבטחת אמינות ובטיחות של מערכות הבינה המלאכותית והפיכת החלטות הבינה המלאכותית למוסברות וברורות לבני אדם. למרות שאין הגדרה רשמית אחת מוסכמת באופן אוניברסלי, מספר ארגונים ומומחים הציעו קווים מנחים ומסגרות עבודה, המפרטים את העקרונות המרכזיים של בינה מלאכותית אחראית. נושא הבינה המלאכותית האחראית הופך להיות קריטי הן בתעשייה והן באקדמיה.

דו"ח ארגון ה-GPAI שנבחרתי לייעץ בו לצד מספר יועצים עולמיים בכירים המומחים בתחומי יישום ומימוש טכנולוגיות AI, שם לו למטרה לייעץ ולסייע לארגונים גדולים בעולם ולממשלות שביקשו עזרה בהטמעת בינה מלאכותית אחראית, בהם  ארגונים ומדינות באירופה, באפריקה, בהודו, בדרום אמריקה ועוד. כולם מעלים ספקות ושאלות, אבל אצל כולם קיימת הבנה חד משמעית, שחייבים לדבר על זה ולפלס דרך.

החודש פורסם הדו"ח המסכם של הפעילות השנתית שלנו, וכמו כן פירוט של הפרויקטים, בהם הפרויקט שהובלתי עם צוות המחקר והפיתוח של חברת Orange Poland. בפרויקט ניסינו להבין כיצד ליישם בינה מלאכותית אחראית בממשק שירות – בוט חכם, שיודע לזהות את רגשותיו המשתמש בו, לפעול ולהגיב בהתאם. זוהי דוגמה להכרח בביצוע שיקולים זהירים של שמירת הפרטיות של הלקוח, ושימוש זהיר ושקול של הפרסונליזציה, שימוש במידע אישי, מול התועלת הנובעת ממנו, תוך שקיפות מול הלקוח ורתימתו לתהליך.

המורכבות של התהליכים הללו אינה מאפשרת הטמעה מיידית של כל היכולות, ודורשת סבבים שונים ברגישות והכלה תוך בדיקה מתמדת של התוצאות, ולכן הנושא של Scalability, המתורגם לעברית כ "ניתן להרחבה" או "יכולת הגדילה" משחק תפקיד חשוב ועקרוני בתכנון הפרויקטים העוסקים בבינה מלאכותית אחראית.

לדו”ח מייחסים חשיבות עולמית גדולה והוא מופץ בארגונים מקבלי ההחלטות, כפי שתוכלו להתרשם בעצמכם כאן.

 

הכותבת, ראשת בית הספר ללימודים רב תחומיים, HIT מכון טכנולוגי חולון, נבחרה להיות חלק מצוות המומחים אשר יובילו את הפרויקטים בארגון העולמי GPAI, כחלק מהמאמצים הגלובליים להגדיר, להתנסות וללמד ארגונים מובילים בעולם להכניס את העקרונות של הבינה המלאכותית האחראית למגוון שיקולי התכנון והביצוע שלהם.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים