ועדה ממשלתית: רגולציה על AI במגזר הפיננסי "בגישה מבוססת סיכונים"
דו"ח של צוות בין משרדי שהקימה הממשלה לבחינת הנושא מציע דרכים כיצד להורות למערכת הפיננסית להתמודד עם הסיכונים הנובעים מכלי ה-AI, ומתי לחייב אותם ליידע את הציבור שהם משתמשים בבינה מלאכותית
הצוות הבין משרדי לבחינת שימושי בינה מלאכותית במגזר הפיננסי פרסם היום (ד') את הדו"ח הסופי שלו, שממליץ על החלת רגולציה על התחום "תוך נקיטת גישה מבוססת סיכונים". הדו"ח ממליץ לרגולטורים הרלוונטיים להתמקד במערכות פיננסיות בעלות סיכון גבוה.
בראש הצוות עמדו עו"ד אמיר וסרמן, היועץ המשפטי של רשות ניירות ערך, ועו"ד שרית פלבר, ראשת אשכול חדשנות טכנולוגית ותקציב בייעוץ וחקיקה בתחומי המשפט הכלכלי במשרד המשפטים. עוד היו שותפים בו נציגי משרד האוצר, רשות התחרות, רשות שוק ההון, ביטוח וחיסכון, והפיקוח על הבנקים בבנק ישראל.
ההמלצות המרכזיות
אחת ההמלצות העיקריות בדו"ח, כאמור, היא רגולציה על בסיס גישה מבוססת סיכונים. הצוות גורס כי "הצורך בשינוי הרגולציה והיקפה תלוי בסיכון הכרוך בפעילות או בשירות הספציפי הרלוונטי, תוך שקילת הכלים הקיימים להתמודדות עם הסיכון והשפעת הבינה המלאכותית עליו. במסגרת זו נדרש לבחון את הסיכון הספציפי ביחס לכל מוסד פיננסי ולכל סוג פעילות פיננסית, וכן לשקול את הסיכון אל מול התועלת הפוטנציאלית הנובעת מהטעמת הטכנולוגיה".
הדו"ח מתייחס גם לבעייתיות להסביר באופן מלא וברור את התוצרים של כלי ה-AI, ומכנה אותה "אחד האתגרים המורכבים ביחס לטכנולוגיה זו". בדו"ח מוצע לדרוש הסברתיות כללית, על אופן פעולת המערכת מבוססת הבינה המלאכותית, אך לא הסברתיות פרטנית – על אופן קבלת ההחלטות המבוססות על AI. "הדבר יידרש בהתאם לנסיבות ביחס למערכות בסיכון גבוה ובהעדר חלופות מפצות הולמות", ציינו מחברי הדו"ח.
חברי הצוות ממליצים בנוסף לחייב את המוסדות הפיננסיים ליידע את הציבור בכל פעם שהם משתמשים בבינה מלאכותית, ובפרט בשלב הראשוני, של הכנסת הטכנולוגיה לשימוש – "אלא אם כן הדבר ברור". כמו כן, הם קוראים לחייב את הבנקים, חברות הביטוח ושאר הגופים הפיננסיים המפוקחים לגלות לציבור כשהם משתמשים ב-AI לצורך שירות או מוצר מסוים שהם מציעים ללקוחות, "כאשר מערכת הבינה המלאכותית היא בעלת השפעה מהותית עליו". הגילוי צריך לעסוק במאפיינים הייחודיים הנובעים מטכנולוגיית הבינה המלאכותית ולהינתן בשפה פשוטה וניטרלית, תוך הימנעות מ-AI Washing – הפרזה ביחס לתועלת מהשימוש בה.
עוד צוין בדו"ח כי "אין מקום לסטות מהעיקרון המקובל ברגולציה הפיננסית, שלפיו האחריות על פי דין מוטלת על הגוף המפוקח, וזה יחול גם ביחס למערכות בינה מלאכותית". בנוגע לחשש שהמוסדות הפיננסיים ינצלו את הבינה המלאכותית כדי להקשות על התחרות בשוק, הדו"ח קובע כי דיני התחרות חלים גם כאן.
תחום נוסף שבו המסמך עוסק הוא הונאות ודיסאינפורמציה – נושא שיש עליו שיח ער בהקשר של בינה מלאכותית. הדו"ח מרחיב על סיכוני דיסאינפורמציה שהבינה המלאכותית מציבה בפני המערכת הפיננסית – החל מהתחזות ללקוחות וכלה בהשלכות מערכתיות רחבות. "בשנה החולפת אפשר היה לראות כיצד סיכונים אלה מתחילים להתממש בישראל", כתבו מחברי הדו"ח. הם מזהים "אזורי סיכון ספציפיים", ממליצים על היערכות – הן של הרגולטורים והן של הגופים המפוקחים, וקוראים "לקדם כלים להתמודדות עם אירועי דיסאינפורמציה, שהם כר פורה להונאות".
עוד ממליץ המסמך על "רגולציה מבוססת עקרונות", כמענה לקצב המהיר להתפחות של ה-AI. הוא מציג "ארגז כלים" שעניינו ממשל בינה מלאכותית – אופן קבלת ההחלטות, ניהול הסיכונים, הבקרה והפיקוח על הפעלת מערכות AI. "הגופים הפיננסיים יוכלו ליישם את האמצעים בהתאם לשיקולים ונסיבות משתנים, כגון אופי השירות הניתן באמצעות מערכת הבינה המלאכותית, מהותיותו, פוטנציאל הפגיעה בפרט וכדומה", צוין.











תגובות
(0)