התשובה לחששות: פיתוח AI בצורה מבוקרת – לתועלת האדם

הפתרון לשלל הדאגות שעולות בנושא ה-AI הוא שיתוף פעולה בפיתוח הטכנולוגיות, וביצועו על ידי מי שלא רק מבין בתחום, אלא גם יש לו את הערכים כדי לשמור אותו כמה שיותר אמין ובטוח

01/06/2023 18:09
דרור פרל, מנכ''ל קינדריל ישראל.

השיח סביב שימוש לא נכון בבינה המלאכותית צובר תאוצה, ובאחרונה מדברים רבות אודות הסיכונים הפוטנציאליים לאנושות לעומת היתרונות הטמונים בתוכנות AI. התשובה, כמו תמיד, נמצאת אי שם באמצע. אין ספק שלא ניתן לעצור את הדהירה קדימה ואת הפיתוח והשימוש במערכות מתקדמות, אבל לצד זה, חיוני שחברות יתנו עדיפות לפיתוח כלים ומערכות AI באופן מבוקר ואחראי, כדי להבטיח את הבטיחות ורווחת העתיד של האנושות.

ואמנם, בעוד שיש כאלה שחוזים שהבינה המלאכותית היא לא פחות ולא יותר מאשר סכנה לאנושות ויש כאלה שקוראים לרגולציה על התחום, אחרים קוראים להשהות את הפיתוח, למען אותה זהירות. באחרונה, חוקרים בכירים וחלוצים עולמיים בתחום חתמו על מכתב פתוח שקורא להשהות למשך שישה חודשים לפחות ניסויי AI ענקיים בכלים ואלגוריתמים של בינה מלאכותית, שהם חזקים יותר מהכלים העדכניים ביותר, כגון ה-GPT 4.

הסיכונים שבמערכות AI

טכנולוגיית הבינה המלאכותית נועדה לסייע בקבלת החלטות מבוססות נתונים, תחזיות ותוצאות נגזרות. אלא שאם לא נעשה בזה שימוש באופן נכון או למטרה נכונה, זה יכול לגרום לתוצאות שגויות ואף הרסניות, אם הנתונים מוטים, גם אם לא בכוונה, או שהם לא שלמים. כדי להפחית את הסיכון הזה, חיוני שהפיתוח ייעשה באופן הגון ושקוף, תוך גיוון וייצוג האוכלוסייה שהתוכנה משרתת. את זה אפשר להשיג על ידי פעולה בשקיפות לגבי האלגוריתמים ומתן הסברים ברורים להחלטות שהתקבלו על ידי ה-AI. צעד זה יבנה אמון בטכנולוגיה ויבטיח שימוש אחראי ואתי.

סיכון מרכזי נוסף הוא השימוש הפוטנציאלי בבינה המלאכותית למטרות זדוניות. לדוגמה, ככל שה-AI הולך ומתקדם, פושעי סייבר עלולים לנצל אותו ליצירת מתקפות.

יתרה מכך, ה-AI עלול לתמרן את דעת הקהל ואפילו להשפיע על קבלת החלטות אצל בני אדם.

כדי להתמודד עם הסיכון הזה, חשוב שמפתחי בינה מלאכותית וחוקרים ישלבו אבטחה ובטיחות במערכות שהם יוצרים. משמעות הדבר היא הטמעת אמצעי אבטחה חזקים, כדי למנוע גישה לא מורשית ל-AI ולנתונים. זה גם אומר לעצב את ה-AI כך שיהיה עמיד בפני התקפות ולהבטיח שלא ניתן לתפעל אותו בקלות. כמובן שזוהי חובתם של הארגונים להצפין את המידע שנמצא ברשותם, במיוחד אם הוא משרת מנוע של בינה מלאכותית, ולהגן בכמה שכבות אבטחה על הנתונים שהיא עושה בהם שימוש. בנוסף, חשוב שמנהלי אבטחה בארגונים יקבעו הנחיות ותקנות ברורות סביב השימוש בטכנולוגיית AI.

לפתח כלי בינה מלאכותית זה טוב, אבל חשוב שזה ייעשה באחריות.

לפתח כלי בינה מלאכותית זה טוב, אבל חשוב שזה ייעשה באחריות. צילום: ShutterStock

גם ההשפעה הפוטנציאלית של הבינה המלאכותית בגרסה מתקדמת על שוק העבודה היא סיבה לדאגה, שכן טכנולוגיה זו עלולה לייתר משרות רבות, בעיקר אלה שמטבען הן יותר שגרתיות וקלות לשכפול. המשרות הללו יהפכו להיות מוצעות באופן אנליטי במקום על ידי בני אנוש, מה שיוביל לעלייה בשיעורי האבטלה וישפיע משמעותית על הכלכלה העולמית.

כדי להתמודד עם הסיכון הזה, חשוב שמנכ"לים ובעלי עסקים ישימו דגש על פיתוח של משרות ותעשיות חדשות משלימות. זה יכול להיות כרוך בהשקעה בחינוך טכנולוגי, תוכניות הכשרה מיוחדות וסדנאות שמכינות עובדים לעבודות שדורשות מיומנויות שקשה לבצע בהן אוטומציה. זה המקום שבו היצירתיות באה לידי ביטוי. כבני אדם, יש לנו את הכוח והיכולת לחשוב מחוץ לקופסה – בשונה מבינה מלאכותית, שמסתכמת רק על נתונים קיימים.

יש חשיבות מכרעת שפיתוח ה-AI יונחה על ידי מערך של חברות שלא רק פועלות עם הטכנולוגיות העדכניות והמתקדמות ביותר, ומסוגלות לפתח אלגוריתמים מתקדמים, אלא גם כאלה שהחזון והאסטרטגיות שלהן מגובים בערכים חזקים, יושרה ותרבות המבוססת על שיתוף פעולה, אחריות הדדית ומצוינות

הדאגה העמוקה ביותר הינה באשר להשלכות האתיות של כלים ומערכות AI עוצמתיים, ואני לא מתכוון רק ל-GPT 4, אלא גם לבינה מלאכותית שמיועדת לבצע משימה ספציפית או קבוצה של משימות, ופועלת בתוך קבוצה מוגדרת מראש של כללים ומגבלות.

ה-AI הוא כלי רב עוצמה. תמיד יהיו אנשים שעלולים להשתמש בו בצורה לא נכונה. עם זאת, זה לא אומר שעלינו לאסור, להתעלם או לא להשתמש כלל בכלי, שכן הבינה המלאכותית יכולה לעזור לשפר את היכולת האנושית ולהוסיף לה ערכים, כאשר משתמשים בה בצורה נכונה ואתית. לפיכך, יש חשיבות מכרעת לכך שפיתוח בינה מלאכותית יונחה על ידי מערכת של עקרונות אתיים ברורים. עקרונות אלה צריכים לתת עדיפות לבטיחות ולרווחה של האנושות, ולהבטיח שפתרונות ומערכות AI מפותחים בצורה שתואמת את הערכים והאמונות שלנו. בנוסף, חשוב שיהיו דיון מתמשך ושיתוף פעולה בין חוקרים, יזמים בכירים ונציגים מקהילת הבינה המלאכותית, כולל מפתחי AI, כדי להעלות את חששותיהם ולקבל החלטות לגבי הרמה הבאה של הבינה המלאכותית, כגון זו הכללית (AGI) ו-AI לצרכי מודיעין (ASI).

האם בכלל ניתן לעצור את הבינה המלאכותית?

זאת שאלה טובה. אין ספק שתחום הבינה המלאכותית ילך ויצבור תאוצה. על פי תחזית גרטנר, עד השנה הבאה, 60% מהנתונים המשמשים בפיתוח פרויקטים של AI ואנליטיקה ייווצרו באופן סינתטי, וניתן יהיה להשתמש בהם במצבים שבהם נתונים אמיתיים לא קיימים, לא זמינים או אובדים. עם העניין הגובר בשימוש בבינה מלאכותית, נתונים סינתטיים ממשיכים לצבור אחיזה, והם יכולים לתמוך באימון טכנולוגיית AI בצורה יעילה יותר.

זאת ועוד, במקום להשהות את הפיתוח והאימון של מערכות AI מתקדמות צריך להשקיע יותר בפיתוח בקרות חדשות. חשוב שהחוקרים, המפתחים והיזמים שעובדים על אותם פרויקטים יקבלו תקציבים כדי להקים צוותים נוספים, שמטרתם לדאוג שאותן בקרות אכן מיושמות, שהמידע שעל בסיסו ה-AI מקבל החלטות הינו שלם ולא מוטה לצד אחד, שיש גישה מבוקרת למידע וכמובן, שכל החלטה תפעל על פי אותן בקרות.

לפיכך, יש חשיבות מכרעת שפיתוח הבינה המלאכותית יונחה על ידי מערך של חברות שיהיו במצב טוב לנצח במרוץ הבינה המלאכותית. חברות שלא רק פועלות עם הטכנולוגיות העדכניות והמתקדמות ביותר, ומסוגלות לפתח אלגוריתמים מתקדמים, אלא גם כאלה שהחזון והאסטרטגיות שלהן מגובים בערכים חזקים, יושרה ותרבות המבוססת על שיתוף פעולה, אחריות הדדית ומצוינות.

הכותב הוא מנכ"ל קינדריל ישראל.

תגובות

(0)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

אירועים קרובים