בינה מלאכותית בלי מדינה אחראית היא סיכון לאומי
ה-AI כבר מקבלת החלטות על אזרחים, כסף ותשתיות ● בלי אחריות ממלכתית ומשילות - החדשנות עלולה להפוך מכוח מקדם לכוח מערער
הדיון בבינה מלאכותית בישראל עדיין נוטה להצטמצם לשיח טכנולוגי – יכולות, מודלים, סטארט-אפים ויתרון תחרותי. זו הסתכלות חלקית, ואולי אף מסוכנת. בינה מלאכותית איננה עוד כלי ייצור מתקדם אלא היא תשתית לקבלת החלטות. כזו שמשפיעה בפועל על אשראי, תעסוקה, זכאויות, תמחור סיכונים, ניהול תורים במערכת הבריאות והפעלה של תשתיות קריטיות.
ברגע שמכונה משפיעה על זכאות, סיכון או מחיר, זו כבר מדיניות ציבורית בפועל, גם אם איש לא הכריז עליה ככזו. אין ספק בנוגע לפוטנציאל – ה-AI יכולה להאיץ את המאבק במשבר האקלים, לייעל רשתות אנרגיה, לחזק ניהול סיכונים פיננסיים, לשפר שירותים ציבוריים ולהנגישם לאוכלוסיות מוחלשות. אך אותה טכנולוגיה בדיוק עלולה גם להעמיק אפליה, לפגוע בפרטיות, לייצר החלטות שגויות בקנה מידה רחב ולהכביד על הסביבה דרך צריכת אנרגיה, מים ומשאבים שעדיין אינם מנוהלים כראוי.
כאשר המדינה עצמה אינה מגדירה מדיניות לאומית ברורה לבינה מלאכותית, אינה קובעת סטנדרטים מחייבים ואינה מסדירה אחריות ופיקוח, יש בכך כדי לשדר על ויתור בפועל על תפקידה הבסיסי והחשוב של הגנה על אזרחיה ועל אמון הציבור
נדרשת הכרעה מדינתית
הפער הזה אינו טכנולוגי. הוא פער של משילות. בפועל, ארגונים מאמצים בינה מלאכותית בקצב מואץ, אך לעיתים קרובות ללא ממשל ברור, ללא חלוקת אחריות מוגדרת וללא חיבור עמוק לאסטרטגיית הארגון. האחריות על השימוש ב-AI מפוזרת בין רגולטורים ו-וקטורים שונים, ובהם פרטיות, סייבר, אפליה, בטיחות ופיננסים, בעוד המערכת האלגוריתמית עצמה פועלת כיחידה אחת, חוצה תחומים ומערכות. הפער הזה אינו תיאורטי. הוא יוצר אזורים של אחריות עמומה, שבהם אין כתובת ברורה כאשר נגרם נזק.
גם ציפייה מחברות "לנהוג באחריות" אינה מספיקה. כאן נוצר כשל שוק מובהק. לחברה בודדת אין תמריץ מלא להשקיע בשקיפות אלגוריתמית, בזכות ערעור או בבטיחות מערכתית, כל עוד המתחרות אינן מחויבות לאותם כללים. העלות הציבורית של טעות אלגוריתמית – גבוהה, אך התמריץ הפרטי למניעתה – נמוך.
זהו בדיוק המקום שבו נדרשת הכרעה מדינתית. זהו גם המקום העדין אשר בו ניתן, חלילה, לעשות שימוש לרעה. במקום הזה ניתן ליצור יתרון תחרותי, לכאורה, בדרכים שאינן כשרות. וכן זהו המקום שבו קיים הסיכון לפיו נקבע ש-"רשע וטוב לו – צדיק ורע לו".
כאן נכנס לעולם התוכן נושא הקיימות בכלל וה-ESG בפרט, לא כסיסמה ערכית, אלא כגשר ניהולי. עקרונות של הוגנות, שקיפות, אחריותיות, שמירה על זכויות אדם וראייה מערכתית של סיכונים מאפשרים לתרגם ערכים ציבוריים לשפה ארגונית. אך חשוב גם לדייק ולהדגיש כי יישום ESG ברמת הארגון הבודד, אינו מהווה תחליף למדינה. הוא כלי תרגום מאד חשוב, אלא לא מקור הסמכות. חשוב להדגיש ולהבין, ה-"יד הנעלמה" לא תביא כאן מזור. זהו המקום להתערבות חקיקתית, אסדרתית ואכיפתית.

צריכה פיקוח מדינתי. טכנולוגיית ה-AI. צילום: אילוסטרציה. ג'מיני
רק כאשר המדינה קבעה כללי משחק ברורים – החדשנות פרחה באמת
כאשר המדינה עצמה אינה מגדירה מדיניות לאומית ברורה לבינה מלאכותית, אינה קובעת סטנדרטים מחייבים ואינה מסדירה אחריות ופיקוח, יש בכך כדי לשדר על ויתור בפועל על תפקידה הבסיסי והחשוב של הגנה על אזרחיה ועל אמון הציבור. חדשנות ללא מסגרת איננה חירות; היא אף עלולה להביא להפקרות, ובינה מלאכותית ללא אחריות ממלכתית איננה קידמה, ובתרחישים מסוימים עלולה אפילו להוות סיכון לאומי.
כך היה בעבר ובהווה בבנקאות, בבטיחות, בהגנת הסביבה ובהגנת הצרכן. רק כאשר המדינה קבעה כללי משחק ברורים, החדשנות פרחה באמת. אותו היגיון חל גם כאן. אחריות מדינתית אינה אויבת הבינה המלאכותית אלא מהווה תנאי לאמון, להשקעות ולשגשוג.
ובמדינת סטארט-אפ כמו ישראל, המשמעות עמוקה אף יותר. מי שאינו מגדיר מסגרת לאומית ל-AI עלול לגלות שחדשנות מקומית משרתת בפועל סטנדרטים אחרים, ולא בהכרח רואה ומביאה בחשבון את האינטרס הציבורי.
הגיעה העת שישראל תגבש מסגרת לאומית מחייבת לבינה מלאכותית אחראית. לא שליטה בקוד, אלא קביעת כללי משחק. מי אחראי, מה חייב להיות שקוף, היכן נדרשת בקרה אנושית, ומתי קיימת זכות ערעור אפקטיבית.
נדרשים כאן מדיניות ממשלתית מתואמת, סטנדרטים ברורים ופיקוח אפקטיבי, כחלק בלתי נפרד מתפישות ממשל תאגידי, קיימות וניהול סיכונים לאומיים.
השאלה איננה אם להשתמש בבינה מלאכותית. השאלה היא מי מגדיר את גבולות הכוח שלה, מי מפקח עליה ומי נושא בתוצאותיה. וזו כבר שאלה של ריבונות.
הכותב הינו עמית מחקר בכיר, המכון למדיניות ואסטרטגיה – IPS, אוניברסיטת רייכמן, לשעבר – המפקח על הבנקים










תגובות
(0)