מחקר חדש מזהיר: ההזיות של ה-AI כבר דופקות על דלתות בתי המשפט – והשופטים עלולים לא לשים לב
בין קיצור תהליכים לשיבוש הצדק
בפעם הבאה שתעמדו מול שופט, ייתכן שחלק מהנימוקים המשפטיים שיוקראו באולם לא נכתבו בידי אדם בכלל. במערכות משפט רבות ברחבי העולם מתחילים להיעזר בכלי בינה מלאכותית כדי לחפש פסיקות דומות, לסכם כתבי טענות או להציע ניסוחים לפסקי דין. מה שנשמע כמו מהפכה טכנולוגית מבורכת עלול, לפי מחקר חדש שפורסם באירופה, להפוך לסיוט משפטי של ממש: אותם כלים שמבטיחים דיוק ומהירות, מייצרים לעיתים מידע שקרי לגמרי – אבל עטוף בשפה משפטית כל כך רהוטה, שאפילו מומחים מתקשים לזהות את הטעות.
החוקרים מצאו כי מודלים לשוניים מתקדמים – אותם מנועים המפעילים מערכות כמו ChatGPT – נוטים "להזות": להמציא ציטוטים, פסיקות, תקדימים ונתונים שלא קיימים במציאות. כשהתופעה הזאת מתרחשת במייל שיווקי, זה מביך. כשהיא מחליקה אל תוך תיק פלילי, זה כבר עלול לגזול מאדם את חירותו.
ההזיות שנשמעות אמיתיות מדי
הבינה המלאכותית של ימינו יודעת לדבר כמו עורך דין, לחשוב כמו חוקר משפטי ולכתוב כמו שופט מנוסה. היא משתמשת במיליוני מסמכים שנלמדו ממקורות ברשת, מאתרי פסיקה ועד מאמרים אקדמיים. אלא שהמודלים הללו אינם באמת "מבינים" את החוק – הם פשוט מנחשים אילו מילים צפויות לבוא אחר אילו, לפי דפוסים הסתברותיים.
התוצאה: כשהם נתקלים בשאלה מורכבת, הם עלולים להשלים את הפערים בעצמם. הם ימציאו הלכה משפטית שלא הייתה ולא נבראה, או יצטטו פסק דין עם מספר תיק שנשמע אמין אך לא קיים בשום מאגר. הסגנון המשכנע והסמכותי של הטקסט גורם לקוראים – עורכי דין, סטודנטים, ולעיתים גם שופטים – להאמין בו ללא בדיקה מעמיקה.
כשהשופט לא יודע שהציטוט מומצא
בארצות הברית כבר התרחשו כמה מקרים מתוקשרים שבהם עורכי דין הגישו לבית המשפט כתבי טענות שנכתבו בעזרת בינה מלאכותית. רק מאוחר יותר התגלה כי חלק מהפסיקות שעליהן הסתמכו כלל לא קיימות. השופטים הזועמים דרשו הסברים, והעורכים נאלצו להודות שהמערכת המציאה את הציטוטים.
המחקר החדש מזהיר שהמקרים הללו הם רק סימפטום לתופעה רחבה בהרבה. ככל שמערכות המשפט מאמצות כלי AI כדי לייעל עבודה – מסיכום תיקים ועד ניתוח תיעוד פרוטוקולים – כך גדל הסיכון ש"הזיות" כאלה יחלחלו אל לב ההליך השיפוטי מבלי שאיש ישים לב. הרי מי יעלה בדעתו שפסק דין מנוסח כל כך יפה פשוט לא קיים?
משפטנים בלחץ זמן, שופטים בלחץ החלטות
בתי המשפט סובלים מעומס עצום. שופטים נאלצים לקרוא אלפי עמודים בשבוע, ועורכי דין מתמודדים עם הררי מידע. לא פלא שהטכנולוגיה נתפסת כמושיעת העולם המשפטי: היא מסכמת, מחפשת, משווה, ואפילו מציעה טיעונים. אבל בדיוק במקום הזה טמון הפיתוי המסוכן – ככל שנוטים לסמוך יותר על המכונה, כך נחלש הבלם הביקורתי האנושי.
בעידן שבו דיוק לשוני מתבלבל עם דיוק עובדתי, ההשלכות הרות גורל. פסק דין שגוי אחד יכול להפוך לתקדים שגוי נוסף, ולהפיץ טעות לאורך שנים. מחקר אקדמי שמשתמש בציטוט מומצא עשוי להשפיע על דור שלם של סטודנטים. וכששופט כותב החלטה בהסתמך על טיעון מדומיין – אפילו בלי לדעת – נשמטת הקרקע מתחת לאמון הציבור במערכת כולה.
לא רק טעות – אלא אתגר מוסרי
הבעיה איננה טכנית בלבד. היא גם מוסרית. מי אחראי כשהמחשב משקר? האם על עורך הדין מוטלת החובה לבדוק כל ציטוט שנוצר על ידי כלי בינה מלאכותית, גם אם המערכת מוצגת כ"מוסמכת משפטית"? האם שופט רשאי להיעזר במנוע AI כדי להבין סוגיה, מבלי ליידע את הצדדים?
המחקר מציע לחשוב על הסוגיות הללו במונחים של "היגיינה משפטית": כמו רופא שנדרש לשמור על כללי בטיחות בסיסיים, כך גם איש משפט חייב להקפיד על בידוק אמין של מקורות. אחרת, הזהות בין שפה משפטית נכונה לבין אמת עובדתית עלולה להיעלם – ובמקומה יישאר רק טקסט שנשמע משכנע אך מנותק מהמציאות.
מי יפקח על השופטים של העתיד?
בעוד חלק מהמדינות מנסות לקדם רגולציה מחמירה לשימוש בבינה מלאכותית, תחום המשפט נותר מאחור. במשרדי עורכי דין כבר נכנסו לשימוש מערכות שמסוגלות להציע ניסוחים של חוזים או לסכם הליכים, ובתי משפט אחדים בעולם החלו לבחון כלים לכתיבת טיוטות פסקי דין. אבל למי האחריות אם אחד מהכלים הללו יטעה?
יש הקוראים להקים גופים פיקוחיים שיבחנו את הכלים המשפטיים לפני שייושמו במוסדות רשמיים. אחרים סבורים שהפתרון הוא דווקא בחינוך: ללמד סטודנטים למשפטים כיצד לזהות טקסט שגוי שמתחזה לנכון, ואיך לא להפוך לעורכי דין שסומכים על מכונה יותר מאשר על עצמם.
בין יעילות לצדק
אי אפשר להתעלם מהיתרונות: בינה מלאכותית יכולה לקצר הליכים, לאתר תקדימים במהירות, ולהנגיש מידע לכל אדם. אך המחקר החדש מזכיר לנו שהשאלה איננה רק "כמה מהר נגיע לפסק הדין", אלא גם "כמה אמיתי הוא יהיה".
אם לא נבנה מנגנוני בקרה, רגולציה והכשרה, בתי המשפט עלולים להפוך לשדה ניסוי שבו האלגוריתם יוצר את החוק במקום לפרש אותו. אולי בעתיד הקרוב נקבל הודעה רשמית מבית המשפט: "פסק הדין נכתב בעזרת מערכת AI מוסמכת". אבל אם אותה מערכת תחליט – בלי כוונה – שציטטה פסיקה שמעולם לא נכתבה, מי יתקן את העוול?
העתיד של המשפט כבר כאן – השאלה מי שולט בו
הבינה המלאכותית לא עומדת להיעלם מהעולם המשפטי. להיפך – היא תתרחב, תתייעל ותשתלב בכל שלב של קבלת ההחלטות. אבל המחקר הזה משמש תמרור אזהרה ברור: אם לא נשמור על גבולות בין תבונה אנושית לתבונה מלאכותית, נמצא את עצמנו במציאות שבה לא נדע להבדיל בין אמת לבין המצאה. המאבק הוא לא בין אדם למכונה, אלא בין אמת משפטית לאשליה דיגיטלית. ואם נרשה לאשליה הזו לקבוע גורלות באולם הדיונים, לא בטוח שהצדק יהיה זה שינצח.







