הישראלי שחוקר את הצד האפל של הבינה המלאכותית

ד"ר יונתן בלינקוב מהטכניון חוקר הטיות ומידע מוטעה בשימוש ב-AI, כולל כאלה שיכולים להביא לתוצאות הרות אסון ● מחקר שלו, שמנסה להבין כיצד פועלים הנוירונים שבעזרתם מבצעים את לימוד המכונה, זכה באחרונה בפרס

ד"ר יונתן בלינקוב.

הבינה המלאכותית נכנסה לחיינו בסערה לפני כמה שנים, בפרט עם ה-GenAI, ומחוללת מהפכות בשוק העבודה, בלימודים ובכלל בחיי היום יום שלנו. אלא שיש לה גם צד אפל – התנהגויות של ה-AI שאנחנו לא יכולים לחזות, הטיות AI, הזיות ועוד. על ההתמודדות עם אתגר זה זכה באחרונה ד"ר יונתן בלינקוב מהפקולטה למדעי המחשב על שם טאוב בטכניון בפרס קריל. את הפרס מעניקה קרן וולף, והוא נועד לעודד הצטיינות במחקר מדעי.

המחקר שעליו קיבל ד"ר בלינקוב את הפרס עוסק בפיתוח שיטות לזיהוי ולניתוח של ידע במודלי שפה גדולים (LLMs), ומטרתו היישומית היא לאפשר לחוקרים להתמודד עם התנהגויות בלתי צפויות שצצות במערכות בינה מלאכותית, לרבות כאלה שעלולות להיות מזיקות. במילים פשוטות יותר, המטרה היא להבין טוב יותר את הבינה המלאכותית, כולל את הצדדים הפחות מועילים שלה.

ד"ר בלינקוב הצטרף לטכניון ב-2020, לאחר שהשלים דוקטורט ב-MIT ופוסט דוקטורט שם ובאוניברסיטת הרווארד. הדוקטורט שלו עסק בהבנה של מודלים של למידה עמוקה, בדגש על מערכות תרגום אוטומטי וזיהוי דיבור. בינתיים יצאו לעולם ה-GPT וה-ChatGPT של OpenAI ששינו את כללי המשחק בתחום, וכעת המחקרים שלו עוסקים במה שעומד ביסוד שלהן ושל מערכות הבינה המלאכותית היוצרת המובילות האחרות – מודלי שפה גדולים.

לדבריו, "החלטות מבוססות בינה מלאכותית משפיעות עלינו יותר ויותר, וחלקן הרות גורל. לכן אנחנו מפתחים כלים שישמשו, בין השאר, להתמודדות עם אתגרים של הטיות, מידע מוטעה ופגיעה בפרטיות".

תסביר בבקשה.
"נניח שנשאל את הצ'ט שאלה בחשבון: כמה זה 24 כפול 13? סביר להניח שנקבל תשובה נכונה. אבל, אותנו מעניין לדעת איך הוא הגיע לתשובה הזו. כלומר, האם הוא באמת יודע חשבון או משנן תשובות על בסיס מה שלימדו אותו. עושים זאת על ידי ניסיון להבין כיצד פועלים הנוירונים, שבעזרתם מבצעים את לימוד המכונה".

למה זה חשוב?
"כי זה עוסק לא רק בתרגילי חשבון. אם, למשל, אני מבקש מהצ'ט לתקן ולהוסיף דברים למאמר מקורי – על סמך מה הוא ייתן לי את התשובה? האם הוא משנן תבניות, או שהוא יודע להתמודד עם דברים חדשים? אין לנו עדיין תשובה אחידה לשאלות הללו, אבל ברור לנו שאין אלגוריתמים רובסטיים, שיודעים הכול, אלא כנראה שיש אוסף של תבניות. זה מביא אותנו להניח שהמכונה מפתחת כללי אצבע. למשל, במקרה של שאילת שאלה בחשבון, אנחנו רוצים לדעת האם יש נוירונים שמזהים, נניח, את כל הכפולות של חמש, או שהוא יודע לאסוף מידע מדפוסים קיימים, ואם אנחנו יודעים שיש נוירון כזה, איך אנחנו יכולים לשלוט בו ולשפר אותו, כדי התשובות תהיינה בעלות רמת אמינות הרבה יותר גבוהה – דבר מאוד חשוב לנו, כמשתמשים".

עד כמה הצלחתם?
"בחלק מהמקרים הצלחנו, ובחלק עדיין לא. למשל, יש לנו יכולת מסוימת להשפיע על תופעה של הזיות במערכת בינה מלאכותית. אבל האתגרים הרבה יותר מורכבים וקריטיים: למשל, כל הנושא של מידע פרטי, או כזה שאתה לא רוצה שייחשף. אז נכון שאם תשאל את ChatGPT או כל כלי GenAI אחר שאלה לגבי מידע אישי על מישהו, סביר להניח שלא תקבל תשובה, בעיקר מטעמי רגולציה. אלא שזה מידע שקיים אצלם, והמטרה שלנו היא לנסות להשפיע על אחד הנוירונים, כך שידאג שהמידע האישי הזה בכלל לא יהיה אצלם. זאת, מאחר שכיום, הכול חשוף לפריצות והתקפות, או שמי שרוצה את המידע שלך יכול לשאול שאלות קצת יותר מתוחכמות – ולקבל אותו מכלי ה-GenAI".

"יש עוד דברים, והם הרבה יותר מסוכנים", הוסיף ד"ר בלינקוב. "אם תשאל את הצ'ט איך בונים נשק ביולוגי או כימי, סביר שלא תקבלו תשובה. אבל בניסוח שאלות מתוחכמות יותר המידע הזה עלול להגיע אליך. ומה עם מקרים שבהם אתה פונה לצ'ט בנושא שאף אחד לא פנה אליו בנושא עד לאותו הרגע? בכל אלה, השאלה היא על סמך מה הצ'ט השיב לך – וזה הדבר שאנחנו חוקרים".

"קיימת עוד שאלה: איך מעדכנים את המודל? זה לא דאטה בייס. לעדכן מכונה כמו ChatGPT בכל פעם זה דבר מטורף. אין עדיין פתרון מושלם לאתגר הזה. נעשו כבר כמה עבודות, אבל יש עוד מה לעשות. זה אתגר שמעסיק אנשים וגם ארגונים שמטמיעים מערכות בינה מלאכותית".

האם אתם רוצים להשתמש במחקר למוצר או להקמת סטארט-אפ?
"לא בשלב זה. נכון שיש גופים שיודעים לקחת מחקר וליישמו – לנו יש שיתוף פעולה, למשל, עם חוקר בארצות הברית, אבל אני נשאר באזור המחקר".

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים