ה-Generative AI מחדד את הדילמה: אפשר לסמוך על בינה מלאכותית?

בשאלה הזו, ובשאלות אחרות שקשורות לבינה המלאכותית - בכלל וזו היוצרת בפרט - עסק פאנל שהתקיים במסגרת כנס Future of AI של Lynx מבית אנשים ומחשבים

המודעות של המנהלים לבינה המלאכותית היוצרת גבוהה משניתן לחשוב.

אחת השאלות החשובות, שעולה שוב ושוב ביקום החדש שנבנה סביבנו, שבו כבר כמעט כל אספקט בחיים נוגע בבינה מלאכותית יוצרת, היא האם אנחנו בכלל יכולים לסמוך על ה-AI. מדובר בחלק משורה של שאלות אתיות שנוגעות לסיכונים שנובעים ממידע שאינו נכון, הטיות שנובעות מאיכות הנתונים ובעיות של פרטיות, וגם משאלות שניתן להגדירן כסובייקטיביות, כמו חשש מהתקדמות והפחד מהשינוי שעומד להתרחש בשוק העבודה.

"הדילמות האתיות בנושא הבינה המלאכותית מלוות אותנו שנים רבות, אבל עכשיו, עם הפריצה של הבינה המלאכותית היוצרת, יש התחדדות של ההיבט הזה, ואנחנו מתמודדים הרבה יותר עם הסיכונים והדילמות שמלוות אותנו, גם אם יש בה הזדמנויות רבות ופריצות דרך. אפשר לראות את ההתבטאויות של אבות הבינה המלאכותית על סכנותיה. יש אומרים שזה יותר מסוכן מסכנות האקלים, שהם חרדים מההשפעה שיכולה להיות ל-AI על האנושות. יש הרבה מידע מוטעה ומוטה ואפליה, ואלה דברים שצריכים להתמודד איתם", כך אמר שלומי כהן, מנהל פרקטיקת הבינה המלאכותית בדלויט.

שלומי כהן, מנהל פרקטיקת הבינה המלאכותית בדלויט.

שלומי כהן, מנהל פרקטיקת הבינה המלאכותית בדלויט. צילום: נדב כהן יונתן

כהן אמר את הדברים בפתיחה של הפאנל שאותו הוא הנחה, שעסק בסוגיה הזו ושהתקיים במסגרת כנס Future of AI של Lynx מבית אנשים ומחשבים. הכנס נערך באחרונה במרכז האירועים והכנסים לאגו שבראשון לציון. הפאנל היווה חלק ממסלול שדן בבינה המלאכותית יוצרת התוכן כחזית החדשה של הטכנולוגיה, לאחר התפצלות המליאה למסלולים השונים. בכנס נכחו מאות מומחים, אנשי מקצוע ומתעניינים בעולמות הבינה המלאכותית.

"זה מגיע מכל התחומים. לכל אחד מהלקוחות שמתחבר לפלטפורמה שלנו יש תוכן מהותי שונה. הצורה שבה בחרנו להתייחס לעניין של האמינות הוא לטפל במידע בצורה של הפרד ומשול, ולקחת כל תחום ולהתמקד בו. יש לנו מיליוני נקודות נתונים, ואנחנו לוקחים את המידע ומשתמשים בו באמצעות סיווג, ובודקים את האינטראקציות מול כל תחום ותחום, בכל תעשיה. צריך להתמקד בנתונים ולהבין מה מזינים למודלי הבינה המלאכותית, ויש כיום הרבה עבודה כדי להבטיח שלא יהיה מידע לא תקני, בהיבטים השונים שלו. אנחנו עושים זאת ומבצעים משוב מול הלקוחות, כדי לוודא שזה אמין. מה שכבר הבנו, בכל מקרה, הוא שחייב להיות אדם בלולאה הזו", אמר עדי גלסמן, דירקטור בכיר להנדסת נתונים בזנדסק.

עדי גלסמן, דירקטור בכיר להנדסת נתונים בזנדסק.

עדי גלסמן, דירקטור בכיר להנדסת נתונים בזנדסק. צילום: נדב כהן יונתן

ד"ר אופיר הולדר, מייסד שותף ומנכ"ל בסטארט-אפ החדש יחסית מולטיקס, התייחס לנושא התממת הנתונים. "יש היבטים חשובים בשימוש בדאטה סינתטי כדי לאמן מודלים. מעבר לכך שצריך להכין את המידע כך מראש, זה לא פותר את בעיית הפרטיות, כי צריך לתת דוגמאות ספציפיות וזה כולל מידע ישיר. נשאלת השאלה: איך זה משפיע על המודל? אם המאפיין הקלאסי של הנתונים הסינתטיים נשמר? זה לא פתרון קסם, ואם רוצים מודל טוב באמת, גם סטייה קטנה ממידע אמיתי יכולה לפגוע בו. מכאן נובע שהפיכת המידע לסינתטי היא בעייתית, בסופו של דבר", אמר.

ד"ר אופיר הולדר, מייסד שותף ומנכ"ל במולטיקס.

ד"ר אופיר הולדר, מייסד שותף ומנכ"ל במולטיקס. צילום: נדב כהן יונתן

כיצד מתמודדים עם ההיבטים של אפליה והטיה? האם צריך להתערב באלגוריתם? בן פרבר, שעומד מאחורי הפודקאסט AI פשוט, הוא מאלה שדוגלים בהתערבות. "התוצאות שמתקבלות הן מאחר שרוב הנתונים של הכלים הללו מבוססים בהכרח על המידע שקיים באינטרנט, ומה לעשות, כנראה שהמידע הממוצע מספר, לדוגמה, שרופא הוא גבר בן 50 שנראה טוב. אנחנו עוד אולי מבינים שיש כאן הטיה, אבל מה עושים עם הדור הצעיר יותר, שפשוט מקבל ומאמין לתוצאות הללו, כי זה מה שהמודל מספר לו? האם כך אנחנו רוצים לחנך את הדור הבא? האם המפתחים של הכלים צריכים להתערב, לשנות את התכונות, וכן להוסיף תכנים ידנית בשביל החינוך של הדור הבא? כן, אני חושב שצריכה להיות התערבות, לפחות ברמה של ליידע כל משתמש בכל רמה שיהיה מודע להטיות הללו – כי יש רבים, אם לא הרוב, שמשתמשים בבינה המלאכותית היוצרת בלי שהם מודעים לכך", ציין.

בן פרבר, האיש שמאחורי הפודקאסט AI פשוט.

בן פרבר, האיש שמאחורי הפודקאסט AI פשוט. צילום: נדב כהן יונתן

ד"ר אילן ששון, מייסד שותף ומנכ"ל דאטה סיינס, התנגד: "מי יהיה אחראי לאפליה המתקנת? מי יהיה אחראי לזה שהיוצרים מבצעים תיקונים נכונים?", שאל. "צריכים להתייחס לכך בזהירות, ואם נתחיל בהטיות זה לא ייגמר, אי אפשר לסמוך על זה. אבל אם היו מציעים מכונת בינה מלאכותית שלא תהיה מוטית, שהיא תהיה אחראית על הבינה המלאכותית ותלמד מזה – אפשר יהיה לסמוך על זה יותר".

ד"ר אילן ששון, מייסד שותף ומנכ"ל דאטה סיינס.

ד"ר אילן ששון, מייסד שותף ומנכ"ל דאטה סיינס. צילום: נדב כהן יונתן

הוא התייחס לתפקידו של הרגולטור בנושא, לאור כך שהאיחוד האירופי עומד לפרסם את צו הבינה המלאכותית שלו. "הרגולטור צריך להגדיר כללים. לעולם הוא יאמר בדיוק מה לעשות, ובינה מלאכותית זה הרבה יותר קשה. אבל, הוא צריך לוודא שמפתחים מערכות שאתם מודעים לכך מראש שתהיה הטיה בכל היבט", אמר ד"ר ששון. "האירופים מאוד מתקדמים, האחרים יעקבו אחריהם, ואני חושב שצריך להיות גוף שעוסק בכך גם בישראל – אבל ספק אם הוא יוכל באמת לבדוק, ביום שיהיה אירוע, שעשו את כל מה שצריך כדי למנוע את הבעיה".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים