לכתוב בלי לחשוב: כשה-AI נכנס לתמונה
תארו לעצמכם שאתם צריכים לכתוב עבודה לסטטיסטיקה או מייל מסובך לעובדים, אבל אין לכם כוח, זמן או פשוט חשק. במקום לשבת ולנסח מילה במילה, אתם פשוט פותחים את ChatGPT, מקלידים כמה שורות של הסבר, ולוחצים "שלח". תוך שניות אתם מקבלים טקסט מוכן, שוטף, מסודר, שלפעמים אפילו נשמע טוב יותר ממה שהייתם כותבים בעצמכם.
ככה נראית היום המציאות עבור הרבה מאוד אנשים. תלמידים משתמשים בזה כדי להגיש עבודות. סטודנטים כותבים בעזרת זה מאמרים. אנשי שיווק יוצרים תכנים. מורים מבקשים רעיונות לשיעור. אפילו מנהלים בכירים משתמשים בכלים האלה לנסח מיילים או נאומים. וזה רק הולך ומתרחב.
לכאורה מדובר בכלי עזר חכם, נגיש ויעיל. אבל מתחת לפני השטח מתעוררות שאלות שמביכות לא מעט אנשים: האם זה עדיין נחשב לכתיבה שלנו אם המכונה ניסחה את רוב המילים? האם זה מוסרי להשתמש בזה בלי לגלות שמדובר ביצירה של בינה מלאכותית? והאם זה בכלל חוקי בכל הקשר, או שיש מקרים שבהם השימוש הזה נחשב להונאה של ממש?
השאלה הגדולה שתופסת את כולם היא לא רק מה הכלי הזה יודע לעשות, אלא איך אנחנו בוחרים להשתמש בו. האם זה בסדר להיעזר ב-AI כמו שעושים עם מחשבון או מתרגם, או שמדובר ברמאות שקטה שמתלבשת על כישרון של מישהו אחר? והתשובות לכך לא תמיד חד-משמעיות.
האם יש פתרון לבעיה?
עבור מרצים, מורים ומעסיקים, העולם החדש הזה יצר בעיה כמעט בלתי פתירה. הם רואים טקסט שמוגש להם, לפעמים אפילו מרשים ומדויק, אבל לא יכולים לדעת בוודאות מי באמת כתב אותו. האם זה סטודנט שישב ועמל שעות על ניסוח מדויק, או שמדובר בתוצאה של כמה לחיצות במערכת בינה מלאכותית?
התחום של גילוי כתיבה על ידי AI עדיין נמצא בראשיתו, וכיום עדיין אין לו מענה אמיתי. מחקרים שבחנו את היכולת לזהות טקסטים שנוצרו ב-AI מצאו תוצאה מדאיגה. אחד מהם, שנערך באוניברסיטת רידינג בבריטניה, הראה ש־94 אחוז מהטקסטים שנכתבו בעזרת בינה מלאכותית לא זוהו ככאלה. כלומר גם כשבודקים בכוונה, הסיכוי לזהות שורות שנכתבו על ידי מכונה הוא כמעט אפסי.
התוצאה היא תחושת חוסר שליטה. מוסדות חינוך מרגישים שהם מאבדים אחיזה באותנטיות של העבודות. מעסיקים חוששים שהם מקבלים תכנים שמייצגים מערכת ולא אדם. ובקצה השני יש תחושה הולכת וגדלה שהעתיד מלא בזיופים – לא רק של תמונות וסרטונים אלא גם של מילים, רעיונות ואפילו מחשבות.
הבעיה הגדולה היא שלא מדובר במקרה קצה או תופעה שולית אלא במשהו שהולך ומתפשט. ואין אף כלי אחד שמסוגל באמת לתת מענה חד וברור. לכן, יש מי שמנסה לשנות את חוקי המשחק.
הפתרון של פרופסור בּוּ מפלורידה
באוניברסיטת פלורידה, בתוך המעבדה של פרופ' יוהנג בו, מתבשל אחד הפתרונות המסקרנים ביותר לבעיה הזו. הוא וחוקרים נוספים מפתחים שיטה להצפין "טביעת מים" בתוך טקסטים שנוצרים על ידי בינה מלאכותית. הכוונה היא לאות בלתי נראה, משהו שלא פוגע בניסוח או באיכות הכתיבה, אבל נמצא שם – כמו חתימה סודית של המערכת שכתבה את הטקסט.
מה שמייחד את הגישה של פרופ' בו היא היכולת לשמור על טבעיות הכתיבה גם לאחר החתימה וגם כשהטקסט עובר שינוי. כלומר גם אם מישהו משנה ניסוחים, מחליף מילים או עורך את הטקסט, סימן המים נשאר, כל עוד המשמעות הכללית לא משתנה. כך אפשר לזהות בקלות יחסית מתי מדובר ביצירה של בינה מלאכותית.
לעומת ניסיונות דומים כמו זה של חברת גוגל, הפיתוח של בו משתמש בשיטה אדפטיבית, שבה רק חלק מהטקסט עובר החתמה. כך נשמרת איכות גבוהה יותר, והסיכוי שהחתימה תיעלם בעקבות שינוי בטקסט יורד משמעותית.
הרעיון פשוט אך גאוני: לא למנוע שימוש בבינה מלאכותית אלא לאפשר שקיפות. אם טקסט נכתב בעזרתה, סימן כלשהו יהיה שם. וכשמישהו ירצה לבדוק, תהיה דרך לדעת.
אמון ושליטה, מי מחזיק את המפתחות?
כדי לזהות אם טקסט מכיל סימן מים, צריך מפתח מיוחד. את המפתח הזה מחזיקה רק המערכת שכתבה את הטקסט. למשל, אם הטקסט נוצר ב-ChatGPT, אז רק OpenAI – החברה שמאחוריו – יכולה לזהות בעזרת אותו מפתח אם יש חתימה בפנים.
וזה מעלה שאלות לא פשוטות: מי אמור להחזיק במפתח הזה? האם כל מרצה או מורה יוכלו לקבל גישה? האם המפתחות יהיו זמינים לכולם או יישמרו אצל החברות בלבד? ומה קורה אם מישהו כותב טקסט ורוצה להוכיח שזה לא נכתב על ידי מכונה? או להפך – לטעון שמישהו אחר השתמש בבינה מלאכותית?
השאלות האלה לא רק טכניות אלא נוגעות בלב הדיון הציבורי. מדובר בפרטיות, בזכויות יוצרים, באמון בין אנשים. ברגע שהיכולת לייצר טקסטים בקלות הופכת לנפוצה, מתחילה מלחמה חדשה – על האותנטיות.
החזון של פרופ' בו הוא ליצור מערכת אקולוגית שלמה שבה כל טקסט שמיוצר בבינה מלאכותית יכיל סימן מים, וכל גוף שצריך לבדוק יוכל לעשות זאת בצורה מוסדרת. אבל עד שזה יקרה, כולנו נמשיך לחיות במציאות שבה לא תמיד ברור מי כתב את מה שאנחנו קוראים. והאמת? ייתכן שכבר סימנו גם אותנו.