"הבינה המלאכותית תפגע בעובדי ההיי-טק בשכבות הנמוכות"

לדברי ד"ר תהילה שוורץ אלטשולר, ה-AI תפגע בעיקר בכותבי האלגוריתמים והתוכנה, ואנשי ה-QA, ובמידה רבה בנשות היי-טק חרדיות ● "אם לא נתעורר וניערך לסכנות הפוטנציאליות שבה - נינזק כלכלית", הזהירה

ד"ר תהילה שוורץ אלטשולר, ראשת התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה.

"אנחנו צריכים לחשוש מהתפתחות הבינה המלאכותית. היא לא תהרוס את העולם, לפחות לא באופן מיידי, אבל חשוב להכין את הקרקע להתקדמות הטכנולוגית ולסכנות הפוטנציאליות הטמונות בה, ולהתחיל לחשוב על ארגז כלים לרגולציה של התחום. ההתקדמות המואצת של ה-AI תביא לשיבושים ניכרים בשוק העבודה ולייתור של כל מיני מקצועות, דוגמת עורכי דין מתלמדים ועובדי היי-טק בשכבה הנמוכה, בהם כותבי תוכנה ואנשי QA. כך, למשל, הבינה המלאכותית היוצרת תביא לייתור הצורך בכותבי אלגוריתמים בני אנוש, וזה כבר מעבר לפינה, ב-2028 – ולא יקרה ב-2050", כך אמרה ד"ר תהילה שוורץ אלטשולר, ראשת התוכנית לדמוקרטיה בעידן המידע במכון הישראלי לדמוקרטיה.

ד"ר שוורץ אלטשולר, אחת המומחיות הבכירות בישראל בתחום המשפט והטכנולוגיה, אמרה בראיון לאנשים ומחשבים כי "בשנים האחרונות, מערכות ה-AI הולכות ונשזרות ברקמת חיי היום יום, ומקיפות אותנו בכל תחום – מהבית ועד לעבודה. הקפיצה הגדולה של ה-AI התרחשה בשנה האחרונה. ההופעה המואצת של הבינה המלאכותית היוצרת לימדה אותנו שגם הטוב וגם הרע יקרו הרבה יותר מהר מהצפוי. בין הניזוקות הראשונות תהיינה נשים חרדיות שעובדות במקצועות ההיי-טק בשכבות הנמוכות, שהן לא בכירות ולא ותיקות, אבל הן כן המפרנסות העיקריות במשפחה – והופעת הבינה המלאכותית תשפיע עליהן יותר מאשר על עובדי.ות ההיי-טק האחרים.ות. ההסללה של אותן נשים הייתה מעוררת השראה, אבל נכונה לשעתה ולא עוד – הטכנולוגיה ערערה ועוד תערער את היציבות הכלכלית, שהובטחה להן למשך, נאמר, שני עשורים".

"ה-AI תביא לבעיות קשות בעולם הסייבר"

עוד סכנה פוטנציאלית משמעותית שהבינה המלאכותית מביאה איתה היא בתחום הסייבר – לזה מסכימים מומחים רבים, בהם ד"ר שוורץ אלטשולר. לדבריה, "ה-AI תביא לבעיות קשות בעולם הסייבר. תחשבו על מערכת של סוכן אוטונומי, שקיבלה משימה: שהכותרת של הניו יורק טיימס מחר תהיה 'מתקפת סייבר פגעה בפנטגון' – כשמתקפה שכזו לא הייתה ולא נבראה. כיוון שמדובר בסוכן אוטונומי, המפעיל לא אומר לו איך לבצע את המשימה, והוא יבחר בין כמה אפשרויות, בלי שהוא מבין מה טוב ומה רע, ומה מותר ומה אסור. הוא יעשה כמה צעדים: יפרוץ לאתר הניו יורק טיימס ויפרסם כותרת שקרית שלפיה הייתה פריצה בסייבר לפנטגון; יפיץ פייק ניוז במדיה החברתית על המתקפה שלא הייתה; יעטוף את עורך העיתון בבועת פייק ניוז ויניע אותו לפרסם דיווח שכזה בעצמו; או שהוא יזהה חולשה במערכות הפנטגון ויפרוץ אליהן. האמת היא שזו האפשרות הכי ריאלית, הכי קלה והכי יעילה".

זהירות, בינה מלאכותית!

זהירות, בינה מלאכותית! צילום: ShutterStock

אזור מתקדם נוסף, לדבריה, הוא יכולות ה-AI בלמידה לא מפוקחת, בשילוב שבין ארכיטקטורות – למשל, ראייה ממוחשבת והבנת שפה – לדברים נוספים. "היכולות הללו מתקדמות במהירות שאיש לא צפה ומובילות לכך שדברים שחשבנו שאולי יקרו ב-2050, יקרו בתוך שנתיים או שלוש", אמרה. ד"ר שוורץ-אלטשולר ציינה כי "זה מחייב התארגנות מהירה יותר ברמת השוק וברמת הרגולציה".

"החששות באים לידי ביטוי בכל שרשרת הפיתוח והשימוש במערכות לומדות: החל משלב הגדרת תכליתה של המערכת, עבור בהסתמכות על מידע חלקי, שגוי, מזוהם או מוטה, וכלה באי החלה של בקרות מאוחרות על תוצרי המערכת", הרחיבה. "בנוסף, ככל ש-AI הולכת ומתפתחת, כך מערכותיה נוטות להציג יכולות חדשות, שהמפתחים שלהן לא התכוונו להן או לא חזו אותן".

היא הוסיפה כי "יש גילדות חזקות שמונעות כניסה של טכנולוגיה – למשל במערכת החינוך. זה יאט את חלחול הטכנולוגיה, אבל יקרה גם שם – רק לא ב-2025, אלא ב-2032".

עקרונות מנחים לרגולציה על תחום ה-AI

ד"ר שוורץ אלטשולר כתבה, יחד עם עו"ד עמיר כהנא, ספר חדש בשם אדם, מכונה ומדינה: לקראת אסדרה של בינה מלאכותית. בספר מתארים השניים מהי בינה מלאכותית, כיצד היא התפתחה, מהם יתרונותיה ואילו חששות היא מעוררת, בעיקר כשהטכנולוגיה הזאת משמשת את השלטון. הם מציעים עקרונות מנחים ליצירת מדיניות בינה מלאכותית מוכוונת זכויות וארגז כלים להטלת רגולציה עליה.

"את החששות מפני ה-AI ניתן לחלק לכמה רמות: בעיות מאקרו כלכליות מהירות, דוגמת ההשפעה על שוק העבודה ומשרות ספציפיות; בעיות מאקרו חברתיות ופוליטיות, כגון מערכות בינה מלאכותית שמקבלות החלטות בתחום המשפטי; הטיות של מערכות לומדות ובעיות שהן יוצרות ביכולת להסביר את החלטותיהן; וגם – פעולות לא חוקיות או מזיקות, שמערכות יבצעו לפי המטרה שהוגדרה להן", הסבירה.

ד"ר שוורץ אלטשולר: "יש לשים את תחום ה-AI במרכז שולחנות הדיונים של הקברניטים. מוקדם לחוקק חוק ספציפי לתחום ה-AI, אבל כן יש להיערך לכך ואליו בכלל, ומיד, ולהתאים את החקיקה הקיימת"

"ניתן להתמודד עם כלל החששות והאיומים", אמרה ד"ר שוורץ אלטשולר, "לא בבהלה, ולא מתוך תפיסת 'קץ העולם' – אלא מתוך אוריינות והבנה".

לדבריה, "חשוב להכין את הקרקע להתקדמות הטכנולוגית ולסכנות הפוטנציאליות. יש להתחיל לחשוב על ארגז הכלים לאסדרה. על הכנסת לחייב כבר עכשיו את מקבלי ההחלטות והרגולטורים לעדכן את החקיקה הקיימת ולחוקק גם חקיקה משלימה – שבה מדינת ישראל נמצאת בפיגור".

היא פירטה כי "מדובר בעיקר בחוקים כגון חוק התחרות וההגבלים העסקיים, חוק זכויות יוצרים, חוק הגנת הפרטיות, פקודת הראיות וחוק הרכש הממשלתי. עד שנבין מה צריכה להיות המסגרת לחקיקה בתחום, יש לייצר כבר כעת 'אקו-סיסטם קדם אסדרתי', וסביבו לערוך תהליכי חשיבה בעניין סטנדרטים של זהירות ראויה; לקדם אחריות בפיתוח וביישום של מערכות לומדות; לבנות ארגזי חול ולעשות בדיקות וניסויים בתוכם; ולקדם את הקמתו של מאגר של מומחים, שישמשו את התעשייה, הרגולטורים ובתי המשפט בהתמודדות עם הסוגיות החדשות והמורכבות".

"מדובר באתגר בינלאומי, ישראל לא לבד במערכה", סיכמה ד"ר שוורץ אלטשולר. "כך או כך, יש לשים את תחום ה-AI במרכז שולחנות הדיונים של הקברניטים. נדרש להקים צוותים בין משרדיים נושאיים – שוק העבודה, הגנה בסייבר, הגנת הפרטיות ומלחמה בפייק ניוז – שיקבעו תקינות ותקנות. מוקדם לחוקק חוק ספציפי לתחום ה-AI, אבל כן יש להיערך לכך ואליו בכלל, ומיד, ולהתאים את החקיקה הקיימת. אם לא נתעורר, נהפוך להיות בחצר האחורית הדיגיטלית של העולם, ונינזק כלכלית וחברתית".

תגובות

(2)

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

אין לשלוח תגובות הכוללות דברי הסתה, דיבה, וסגנון החורג מהטעם הטוב

  1. מישהו

    הבעיה העיקרית עם הAI זה הנושא של זכויות יוצרים ופרסום מקורות המידע שמונפק לצורך אמינות התשובה לגבי שוק העבודה שהולך להשתנות אין מה לעשות העולם מתקדם ומאז ומעולם מקצועות נעלמו כי לא היו יותר נחוצים ובמקומם הגיעו מקצועות אחרים וחדשים

  2. הייטקיסט ת״א

    אז מה שאת אומרת בעצם לגבי החרדיות, שעזבו אתכן משטויות - לא צריך לימודי ליבה, אה?! :)

אירועים קרובים