בינה מלאכותית אתית – החזית החדשה בניהול סיכונים

חברות המאמצות AI נדרשות לנקוט צעדים יזומים כדי להבטיח שמערכות ה-AI שבאחריותן מתוכננות ומיושמות תוך התחשבות בשיקולי אתיקה והוגנות

חברות צריכות לאמץ גישה אסטרטגית לניהול הסיכונים האתיים הטמונים בבינה מלאכותית.

מערכות בינה מלאכותית (AI) הופכות במהירות לחלק בלתי נפרד מפעילותן של חברות, ובמקביל – גדל הסיכון להשלכות אתיות והטיות פוטנציאליות המוטמעות בהן. הסיכונים האתיים יכולים להתבטא במגוון אופנים – מדירוג מוטה של מוצרים, יצירת פייק ניוז ןסיכוני אבטחת מידע ועד לקבלת החלטות המתעדפת באופן שיטתי קבוצות ספציפיות של לקוחות, מועמדים לעבודה או זכאים להטבות פיננסיות. הטיות אלה מסכנות את החברה, מפגיעה במוניטין במקרה הקל ועד לפגיעה בלקוחות והסתבכות משפטית במקרה החמור. חברות המאמצות AI נדרשות לנקוט צעדים יזומים כדי להבטיח שמערכות הבינה המלאכותית שבאחריותן מתוכננות ומיושמות תוך התחשבות בשיקולי אתיקה והוגנות. המאמר סוקר אסטרטגיות מפתח שחברות נדרשות לאמץ כדי להפחית סיכונים ולקדם שימוש אחראי ואתי בבינה מלאכותית.

נטרו הטיות באופן רציף – קו ההגנה הראשון מפני הטיות במערכות בינה מלאכותית הוא מודעות של החברה להשלכות האתיות האפשריות ונקיטת צעדים להבטחת שימוש אחראי ב- AI. ניטור רציף של מערכות ה-AI צריך להתבצע בקביעות, כבר משלב התכנון וההטמעה של אותן מערכות, במטרה לזהות היכן בחברה שלנו נמצא הסיכון הגבוה ביותר להטיות באלגוריתמים ואיך ניתן לצמצם את הסיכון הזה. זוהי פרקטיקה שיטתית ומתמשכת, שנועדה להבטיח שמערכות הבינה המלאכותית יתפתחו ויתאימו עצמן ברציפות לערכים ולנורמות עסקיות וחברתיות משתנות.

שלבו אתיקה של AI במחקר ובפיתוח – אתיקה של בינה מלאכותית מתקיימת בחלק מהחברות כמחשבה שלאחר מעשה. עליה להיות חלק בלתי נפרד מתהליך המחקר והפיתוח. חברה חייבת לקבוע עקרונות אתיים מנחים חזקים, להבטיח שהם מושרשים בתרבות ושכלל עובדי החברה מבינים אותם ונאמנים להם, כך לאורך כל מחזור החיים של מערכת הבינה המלאכותית בחברה. עקרונות האמון והשקיפות 360 AI Fairness של יבמ הם דוגמה בולטת לכך. זהו סט קווי יסוד, הכולל שקיפות, אמינות, פרטיות והעצמת היכולות האנושיות. העקרונות משקפים את מחויבותה של יבמ לפתח ולפרוס מערכות AI באופן מועיל, הוגן ומכבד זכויות אדם וערכים. הם משמשים אמת מידה לפרקטיקות AI אחראיות בתעשייה.

עודדו חשיבה ביקורתית – תרבות של הטלת ספק והערכה מחדש של הסטטוס קוו הם חיוניים לחברה כדי לבחון באופן ביקורתי את ההנחות שבבסיס האלגורתימים של AI ואת הטיותיהם האפשריות. חברה שמאתגרת את הנחות היסוד שלה כחלק מהתרבות יש לה סיכוי גבוה יותר לחשוף דעות קדומות נסתרות ומחדלים באלגוריתמים, ולהבטיח שמערכות אלה לא ינציחו הטיות חברתיות או החלטות לא הוגנות. עידוד חשיבה ביקורתית יסייע לזהות את ההשלכות האתיות של החלטות AI, ובכך לקדם תהליך פיתוח מאוזן והוגן יותר. דפוס חשיבה כזה לא רק מסייע בהפחתת סיכונים אתיים, אלא גם בבניית פתרונות AI שיהיו מותאמים למגוון רחב של ערכים וצרכים אנושיים, ובסופו של דבר מגביר את האמון בטכנולוגיית ה-AI שהחברה מציעה. חברת יבמ למשל, מיישמת גישה זו באמצעות ועדת אתיקה ייעודית לתחום הבינה המלאכותית. זוהי פלטפורמה לבחינה ביקורתית של טכנולוגיות ה-AI שבשימוש החברה, ומשמשת מודל לאופן שבו ניתן לעגן עקרונות אלו בפעילות החברה.

"חברות צריכות לחקור את הסיכונים הטמונים במערכות הבינה המלאכותית שלהן ולאמץ גישה אסטרטגית לניהול אותם סיכונים, במטרה ליצור מערכות AI שהן לא רק מתקדמות טכנולוגית, אלא גם אחראיות, הוגנות ומופחתות סיכון"

קדמו הוגנות, בזרו כוח – במטרה למנוע הנצחת אי שוויון, חברות נדרשות להתמקד בהוגנות של מערכות ה- AI, במיוחד כאשר הן מנתחות נתונים מקהילות מגוונות. חברת Airbnb למשל נקטה צעדים כדי להתמודד עם אפליה גזעית בפלטפורמה שלה, על ידי כך שהסירה את תמונות האורחים מבקשות ההזמנה ומבצעת אישור הזמנה מיידי עבור נכסים רבים. בנוסף, ביזור הכוח ושיתוף קבוצה מגוונת של בעלי עניין בפיתוח ופיקוח על מערכות AI הוא חיוני לחברה כדי לשמור על גיוון והכללה. נוהלי האתיקה של בינה המלאכותית בחברת Google לדוגמה, מיישמים גיוון והכללה באמצעות הקמת צוותי פיתוח בין תחומיים, הכוללים אנשים מרקעים, חוויות ופרספקטיבות שונות בפיתוח מערכות ה- AI, כדי להבטיח ייצוג מאוזן של מגוון נקודות מבט ותחומי מומחיות שונים.  החברה מקפידה על בחינה קפדנית של הטיות, הכשרות עובדים בתחומי האתיקה, מעורבות קהילה ומגוון בעלי עניין. כל זאת במטרה לפתח טכנולוגיות AI שהן לא רק מתקדמות, אלא גם אחראיות, הוגנות ומייצגות קשת רחבה של נקודות מבט.

אזנו חדשנות עם שיקולים אתיים – חדשנות היא הכרחית לשרידות ולצמיחה של ארגונים בשוק החדש, עם זאת היא אינה צריכה לבוא על חשבון שיקולים אתיים. חברות נדרשות למצא איזון בין מתיחת גבולות החדשנות הטכנולוגית, לבין הבטחה שמערכות ה- AI שלהן לא ינציחו הטיות או יפרו זכויות משתמשים. בדיוק למטרה זו נועד חוק הבינה המלאכותית של האיחוד האירופי. הוא משמש כמסגרת רגולטורית המעודדת קידום חדשנות AI בשוק האירופי, תוך מזעור הסיכונים הנלווים ליוזמות אלה לכל בעלי העניין.

בינה מלאכותית מציעה פוטנציאל חסר תקדים לצמיחה ולחדשנות של חברות, אך במקביל חושפת את החברה למגוון  סיכונים חדשים וחסרי תקדים. ככל שמערכות AI תופסות מקום משמעותי יותר בתעשיות השונות, כך גובר ההכרח לטפל בהיבטים האתיים ובהטיות של אותן מערכות והופך קריטי יותר. חברות צריכות לחקור את הסיכונים הטמונים במערכות הבינה המלאכותית שלהן ולאמץ גישה אסטרטגית לניהול אותם סיכונים, במטרה ליצור מערכות AI שהן לא רק מתקדמות טכנולוגית, אלא גם אחראיות, הוגנות ומופחתות סיכון.

 

הכותבת היא פיזיקאית, מומחית לאסטרטגיה וחדשנות בתנאי מורכבות, מייסדת Duality.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים