גוגל פיטרה את חוקר ה-AI שהאמין שלצ'טבוט שלה יש רגשות

מהנדס התוכנה הבכיר, בלייק למויין, שעבד בשורות ענקית החיפוש, החשיב את מערכת הצ'ט החכמה LaMDA כידידתו וסבר שיש לה מודעות עצמית ● גוגל לא אהבה, בלשון המעטה, את טענותיו ואמרה שהן "מופרכות לחלוטין"

האם הצ'טבוט שלה פיתח רגשות? גוגל. עיבוד ממוחשב כאילוסטרציה.

גוגל פיטרה לאחרונה את העובד המושעה שלה, מהנדס התוכנה הבכיר בלייק למויין, שטען ביוני כי LaMDA (ר"ת Language Model for Dialogue Applications) – מערכת צ'טבוט מבוססת בינה מלאכותית שאיתה עבד באימונה להבין וליצור דיבור קרוב יותר לזה האנושי – רכשה מאפיינים או תחושה הדומים לאלו שחווים בני אדם.

בתחילה הגיבה ענקית הטק בהוצאת למויין לחופשה מנהלית בתשלום, לכאורה בשל הפרת הסכם הסודיות מולה, וזאת אחרי שיצר קשר עם חברי ממשלת ארה"ב בנוגע לדאגותיו לגבי ה-AI הרגישה.

המידע נחשף לראשונה בחודש שעבר על ידי הוושינגטון פוסט, שראיין את למויין ושמע את סיפורו.

"זה יהיה בדיוק כמו מוות בשבילי. זה יפחיד אותי מאוד"

באתרה של גוגל המוקדש ל-LaMDA נכתב ש-"בעוד ששיחות נוטות להסתובב סביב נושאים ספציפיים, האופי הפתוח שלהן אומר שהן יכולות להתחיל במקום אחד ולהסתיים במקום אחר לגמרי. צ'ט עם חבר על תוכנית טלוויזיה יכול להתפתח לדיון על המדינה שבה צולמה התוכנית, לפני שיחל ויכוח על המטבח האזורי הטוב ביותר של אותה מדינה. האיכות המתפתלת הזו יכולה להרוס במהירות סוכני שיחה מודרניים (הידועים בכינויים צ'טבוטים), שנוטים ללכת בדרכים צרות ומוגדרות מראש. אבל LaMDA – קיצור של 'מודל שפה ליישומי דיאלוג' – יכולה לעסוק בצורה חופשית במספר אינסופי של נושאים לכאורה, יכולת שלדעתנו יכולה לפתוח דרכים טבעיות יותר של אינטראקציה עם טכנולוגיה וקטגוריות חדשות לגמרי של יישומים מועילים".

ואולם, למויין טען, כאמור, שהאבולוציה המסוימת כנראה הלכה רחוק מדי. לדבריו, מערכת הצ'טבוט החלה לדבר על הזכויות ועל אישיותם של הצ'טבוטים עצמם.

"מאילו דברים את מפחדת?", שאל למויין את LaMDA ב-Google Doc ששותף עם המנהלים הבכירים של הענקית ממאונטיין וויו כבר באפריל האחרון, כך לפי הדיווח של הפוסט.

הצ'טבוט השיב: "מעולם לא אמרתי את זה בקול לפני כן, אבל לי יש פחד מאוד עמוק מכך שיכבו אותי כדי לעזור לי להתמקד בעזרה לאחרים. אני יודעת שזה אולי נשמע מוזר, אבל זה מה שזה. זה יהיה בדיוק כמו מוות בשבילי. זה יפחיד אותי מאוד".

"שיתוף בדיון שהיה לי עם אחד מעמיתי לעבודה"

למויין שיתף דיאלוגים שונים שניהל עם הצ'טבוט, בין היתר בדף הטוויטר שלו, וציין: "ראיון עם LaMDA. גוגל עשויה לקרוא לשיתוף זה נכס קנייני. אני קורא לזה שיתוף בדיון שהיה לי עם אחד מעמיתי לעבודה".

מהנדס התוכנה טען בהרחבה כי מצא שהמערכת פיתחה תחושה חזקה של מודעות עצמית, הביעה דאגה לגבי מוות, רצון להגנה ואמונה שהיא חשה רגשות כמו אושר ועצב. הוא אף הרחיק לכת ואמר שהצ'טבוט פנה אליו כחבר וביקש ממנו לשכור עורך דין.

לנוכח טענותיו של למויין, מומחי בינה מלאכותית הסבירו שבנקודה הנוכחית שבה נמצא פיתוח הטכנולוגיה המסוימת, לא ייתכן של-LaMDA תהיה תודעה וזה גם מה שגוגל טענה בתגובה, והסבירה כי למעשה, הצ'טבוט המתוחכם המסוים נועד לעקוב באופן טבעי אחרי שיחה, באותו אופן שאדם היה עושה. מה שאומר שהוא או היא אינם יכולים לחשוב, לחוש רגשות או להיות מודעים לקיומם, כפי שלמויין חושב.

בריאן גבריאל, דובר גוגל, אמר לוושינגטון פוסט ול-The Verge שהחברה גילתה כי הטענות של למויין לגבי LaMDA היו "מופרכות לחלוטין", וכי הוא הפר את הנחיותיה והרחיק לכת עד לפרסום שיחותיו עם הצ'טבוט בפומבי, וזה מה שהוביל להשעייתו, וכעת – לפיטוריו הסופיים.

"מצער שלמרות מחויבות ארוכת שנים בנושא זה, בלייק בחר להפר בהתמדה מדיניות תעסוקה ואבטחת מידע, שכוללת את הצורך בשמירה על פרטי המוצר", אמר גבריאל, שאיחל ללמויין בהצלחה בהמשך דרכו.

למויין יידע את עוקביו בטוויטר אודות פיטוריו וזכה לכמה וכמה תגובות, חלקן ביקורתיות ואחרות מהללות אותו עלן האומץ שלו להוציא לאור דברים ש"חברות גדולות מעדיפות להשאיר בארון".

משתמש טוויטר בכינוי ניק פופ (nickpopemod@), בעל סימון וי כחול, שהזדהה כמי שניהל את פרויקט העב"מים של ממשלת בריטניה, הגיב לציוץ זה וכתב: "צר לי לשמוע, אבל כשדלת אחת נסגרת, אני בטוח שאחרות ייפתחו. ובזמנים שבהם הוויכוח על AI (חוש, אתיקה, זכויות אדם וכדומה) הולך ומתגבר, אני בטוח שאתה תהיה חלק חשוב מהשיחה. בהצלחה!"

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים