כשהמשפט פוגש דמיון: הזיות בינה מלאכותית
באחרונה נתקלים בתי המשפט בתופעה חדשה: עורכי דין מגישים כתבי טענות, הנשענים על פסיקה או חקיקה שאינן קיימות, תוצר "דמיון משפטי" של מודל בינה מלאכותית ● איך מתמודדים?
הזיות של בינה מלאכותית הן מצבים שבהם מערכות AI מייצרות מידע משפטי שאינו קיים ועם זאת נשמע סמכותי, קוהרנטי ומשכנע עד כדי כך שעורכי דין מחליטים לשלב אותו בכתבי טענות שהם מגישים לערכאות השונות.
מאז כניסתן של מערכות ה-AI היוצרת לשוק, נתקלו בתי המשפט בתופעה חדשה ולא מוכרת: עורכי דין מגישים כתבי טענות הנשענים על פסיקה או חקיקה שאינן קיימות, תוצר "דמיון משפטי" של מודל בינה מלאכותית. התרחבות התופעה הגיעה עד לבג"ץ, שמצא לנכון לסקור אותה ולהתייחס אליה בשורה של פסקי דין, בהם בג"ץ 38379-12-24 בעניין פלונית ובג"ץ 23602-01-25 בעניין העמותה לקידום זכויות הכלבים. גם ערכאות נוספות מצאו עצמן מתמודדות עם התופעה וחלקן אף חייבו את עורכי הדין שעשו שימוש ב"הזיות" בתשלום הוצאות.
עבור מי שאמון על חקר האמת, ודיוק בפרטים הוא נר לרגליו, זו תזכורת חשובה: גם כאשר התוצר מתעתע היות שהוא מנוסח היטב ונראה בפורמט הנכון, הוא אינו תחליף לבדיקת המקור.
המאפיין המטעה הוא הדואליות: מצד אחד, כלי AI מסוגלים ליצר במהירות מרשימה טיוטות לכתבי טענות, הסכמים ותכתובות, לנתח עומסי מידע ולהציע מבני טיעון מרשימים וברורים. מצד שני, המודל עלול לייצר מידע שאינו קיים, אך נשמע משכנע כאילו נשאב ממאגר משפטי רשמי. זהו הפער שמלווה היום עורכי דין רבים – בין ניסוח שנשמע אמין לבין תוכן שעלול להיות לא נכון.
כיצד נוצרות ההזיות?
הזיות אינן תקלה נקודתית, אלא חלק מובנה מאופן הפעולה של המודלים. מערכות AI אינן מתחברות למאגרים משפטיים מוסמכים. הן מחוללות טקסט על בסיס דפוסים לשוניים, לא על בסיס מסד נתונים מאומת. כאשר חסר להן מידע, הן ״מייצרות״ אותו, בהתאם למה שנראה להן סביר באותו רגע.
"הבינה המלאכותית לא מהווה איום, אלא היא מתנה שמשלבת אתגר מקצועי: היא עשויה לטעות ולעשות זאת בביטחון רב. לכן תפקידה הוא לתמוך, לסייע ולייעל, אך לא להחליף את שיקול הדעת המשפטי ואת חובת האימות שעל כתפי עורכי הדין"
כך מקבלים עורכי הדין תוצרים הכוללים תיקוני חקיקה שמעולם לא נחקקו, סעיפים שאינם מופיעים בשום ספר חוקים, או פסקי דין שלא ניתנו. במקרים אחרים, המודל אינו ממציא אלא מעוות: משנה פרטים מהותיים, מייחס קביעות שלא נאמרו או מציג פרשנות סטטיסטית כהלכה משפטית מחייבת.
אז מה עושים?
המסקנה אינה להפסיק להשתמש בבינה מלאכותית, אלא להפסיק להסתמך עליה כמקור מידע. המודלים מצוינים ליצירת טיוטות, ארגון טיעון, העלאת כיווני מחשבה והבהרת מורכבויות. הם אינם מתאימים להפקת פסיקה או חקיקה ולא לשם כך נוצרו. מכאן נגזרים עקרונות עבודה ברורים:
כאשר הבינה המלאכותית כותבת — עורך הדין מאמת. כאשר הבינה המלאכותית מנסחת — עורך הדין אחראי.
כיצד מיישמים זאת בפועל?
אימות חובה – כל טענה שמפיק מודל AI חייבת לעבור אימות עצמאי במאגר משפטי רשמי (דוגמת נבו ותקדין).
שקיפות – ניתן לדרוש מהמודל לציין כאשר התשובה שלו אינה מבוססת על מקור ברור.
הנחיות מותאמות אישית – שימוש בהנחיות מותאמות אישית מאפשר לצמצם הזיות באמצעות הנחיות ישירות למודל, כמו: "אל תייצר פסיקה שלא אומתה", או "כאשר אינך בטוח ציין זאת".
סביבת עבודה סגורה – עבודה בפרויקטים סגורים מאפשרת למודל להסתמך רק על מסמכים שהוזנו ע"י עורך הדין ולא על מידע אקראי מהאינטרנט.
נהנים מהפירות מבלי לשלם מחיר
הבינה המלאכותית לא מהווה איום, אלא היא מתנה שמשלבת אתגר מקצועי: היא עשויה לטעות ולעשות זאת בביטחון רב. לכן תפקידה הוא לתמוך, לסייע ולייעל, אך לא להחליף את שיקול הדעת המשפטי ואת חובת האימות שעל כתפי עורכי הדין.
אם נאמץ לעצמנו "קוד אתי" ברור של בדיקה, הצלבה ואימות, נוכל ליהנות מהערך האמיתי של הכלים החדשים וליצור תוצרים משוכללים ומשודרגים תוך שימור עקרונות היסוד של המקצוע: אמינות, דיוק ואחריות.
הכותבת היא יו״רית משותפת של ועדת הבינה המלאכותית – מחוז תל אביב, לשכת עורכי הדין בישראל.











תגובות
(0)