ויקיפדיה, מהנכסים הדיגיטליים המשפיעים ביותר על האינטרנט המודרני, סימנה בשבוע האחרון קו ברור מול התפשטות הכתיבה הגנרטיבית. לפי דיווחים מ-TechCrunch ומקורות נוספים שעוקבים מקרוב אחרי קהילת העורכים, ויקיפדיה באנגלית עדכנה את מדיניות העריכה כך ששימוש ב-LLMs כדי לייצר או לשכתב תוכן של ערכים נאסר באופן מפורש. זו אינה הכרזת מלחמה על בינה מלאכותית בכללותה, אלא ניסיון לשרטט גבול בין כלי עזר טכניים לבין כתיבה אנציקלופדית עצמה. מבחינת הקהילה, הבעיה אינה עצם קיומם של מודלים כמו GPT או Claude, אלא העובדה שטקסטים שנראים שוטפים ומשכנעים עלולים להכיל שגיאות, הטיות, ניסוחים שאינם נתמכים במקורות, ולעיתים גם המצאות מוחלטות. במילים אחרות, ויקיפדיה מנסה להגן על עקרון היסוד שלה: ידע אנושי, ניתן לאימות, שנכתב ונבחן בידי בני אדם.
מה בדיוק השתנה במדיניות
לפי נוסח המדיניות שצוטט בדיווחים, הכלל החדש קובע כי השימוש ב-LLMs כדי לייצר או לשכתב תוכן ערכים אסור. בכך ויקיפדיה מחליפה ניסוח ישן ומעורפל יותר, שלפיו מודלים כאלה "לא אמורים" לשמש ליצירת ערכים חדשים מאפס. ההבדל בין שני הניסוחים חשוב מאוד: בעבר נותר מרחב אפור שאפשר לעורכים לטעון כי הם לא יצרו ערך חדש, אלא רק "שיפרו", "ליטשו" או "ארגנו מחדש" טקסט קיים. כעת גם שכתוב נרחב, כלומר rewriting, נכנס במפורש לאזור האסור. לפי הדיווחים, ההצעה אושרה ברוב גדול של 40 מול 2 בקרב עורכים פעילים, נתון שמעיד על קונצנזוס חריג יחסית בקהילה שנוטה בדרך כלל לדיונים ארוכים ומרובי הסתייגויות. המהלך הזה נועד פחות לחדש אידיאולוגיה ויותר להפוך פרקטיקה קיימת למדיניות מפורשת שקל לאכוף ולהסביר.
- אסור להשתמש ב-LLMs כדי לנסח תוכן חדש לערכים.
- אסור להשתמש ב-LLMs כדי לשכתב תוכן ערכי קיים באופן מהותי.
- מותר להיעזר במודלים לצורך תיקוני לשון בסיסיים בכתיבה של העורך עצמו, ורק לאחר בדיקה אנושית.
- מותר להסתייע בתרגום ממיזמי ויקיפדיה בשפות אחרות, כל עוד יש בדיקה ידנית מלאה של הדיוק והנאמנות למקורות.
החריגים הללו חשובים מפני שהם מלמדים שהקהילה אינה דוחה אוטומטית כל שימוש ב-AI. להפך: גם ויקיפדיה וגם קרן ויקימדיה מכירות בכך שבינה מלאכותית יכולה לעזור במטלות נקודתיות כמו תיקוני דקדוק, גילוי השחתות, הערכת איכות טקסטים, סיוע בתרגום ואיתור בעיות. אבל ברגע שהמודל מתחיל לתרום תוכן מהותי משלו, גם אם בניסוח מלוטש, נוצר סיכון ישיר לעקרונות הליבה של האנציקלופדיה. לפי הניסוח שהופיע בדיווח של TechCrunch, גם כאשר מודל מתבקש לבצע תיקון לשוני בלבד, הוא עלול לשנות את משמעות המשפט באופן שאינו נתמך במקורות. זהו לב העניין: בויקיפדיה, אפילו סטייה קטנה בניסוח עלולה להפוך טענה נכונה למחצה, או טענה בלתי נייטרלית, או טענה שאין לה עיגון מספק בהערות השוליים.
למה ויקיפדיה הגיעה לצעד הזה דווקא עכשיו
כדי להבין את התזמון צריך להסתכל על השנתיים האחרונות. קהילת ויקיפדיה מתמודדת מאז 2023 עם גל הולך וגובר של טקסטים גנרטיביים שנכנסים למרחב הערכים, בין אם על ידי עורכים אנושיים, בין אם דרך כלים חצי-אוטומטיים, ובין אם כתוצאה מיוזמות של "סוכני AI" שמנסים לפעול כפועלים דיגיטליים לכל דבר. במקביל קם בוויקיפדיה באנגלית WikiProject AI Cleanup, מיזם קהילתי שמטרתו לזהות ולנקות תוכן חשוד או פגום שמקורו בבינה מלאכותית. לפי דיווחים קודמים ב-Washington Post ומקורות נוספים, באוגוסט 2025 אף עודכנו מנגנוני המחיקה המהירה כדי לאפשר הסרה זריזה יותר של ערכים שמזוהים כ-AI slop, כלומר תוכן גנרטיבי באיכות נמוכה. במובן הזה, האיסור החדש אינו נקודת פתיחה אלא שלב נוסף בהקשחת הקו: קודם טיפלו בתוצאה, ועכשיו מטפלים גם בשיטת הייצור עצמה.
מאחורי הניסוח הזה עומדת תפיסה עמוקה יותר: הבעיה עם טקסט גנרטיבי אינה רק טעויות עובדתיות גסות. לעיתים קרובות הבעיה היא דווקא בטקסט שנשמע אמין, מאוזן ואנציקלופדי, אך בנוי על פרפרזות רופפות, על הרחבות שלא מופיעות במקור, על קישורים סיבתיים שאינם מגובים, ועל טשטוש בין עובדה לפרשנות. עבור קורא רגיל, ובעיקר עבור עורך חדש, קשה מאוד לזהות מתי טקסט כזה גולש מעבר למה שהמקורות באמת אומרים. התוצאה היא העברת עלות האימות מהמודל למתנדבים האנושיים. במקום שעורך יכתוב טענה מתוך קריאה והבנה של המקור, הוא נדרש לבדוק אם המכונה לא "ייפתה" או "השלימה" פרטים. ככל שהטקסט נראה חלק יותר, כך העבודה נעשית קשה יותר. לכן רבים בקהילה רואים ב-AI לא מכפיל כוח, אלא לעיתים מכפיל עומס.
המתח בין מדיניות הקהילה לבין אסטרטגיית ה-AI של ויקימדיה
כאן הסיפור נעשה מורכב יותר. מצד אחד, קהילת ויקיפדיה באנגלית אוסרת כעת על יצירה או שכתוב של תוכן ערכים בידי מודלי שפה. מצד אחר, קרן ויקימדיה עצמה פרסמה כבר באפריל 2025 אסטרטגיית AI תחת הכותרת "Humans First", ובה הודגש כי בכוונתה לפתח ולהשתמש בכלי AI שמחזקים את העורכים ולא מחליפים אותם. במסמכי האסטרטגיה הרשמיים הוזכרו שימושים כמו קליטת עורכים חדשים, הפחתת עומס עבודה, שיפור איכות, זיהוי השחתות, תמיכה ברב-לשוניות, ושמירה על גישה אנושית ושקופה. כלומר, המוסד אינו אנטי-AI; הוא בעד AI ככלי תומך. דווקא בשל כך, ההחלטה החדשה של ויקיפדיה באנגלית אינה סתירה מוחלטת לאסטרטגיית הקרן, אלא הגדרה מדויקת יותר של הגבול: אפשר להשתמש בבינה מלאכותית בתשתית, בהכוונה, בבקרה ובסיוע, אבל לא במקום שיקול הדעת המחקרי-עריכתי של הכותב.
- קרן ויקימדיה: מדגישה גישת Humans First ושימוש ב-AI כדי לסייע לעורכים.
- קהילת ויקיפדיה באנגלית: אוסרת על יצירה ושכתוב של תוכן ערכים באמצעות LLMs.
- נקודת החפיפה: בני אדם נשארים בעלי הסמכות על ניסוח הידע, בדיקתו והאחריות כלפיו.
- נקודת המחלוקת האפשרית: עד כמה אפשר להיעזר במודלים בלי שהסיוע יהפוך בפועל לכתיבה.
המתח הזה בולט במיוחד על רקע מציאות כמעט אירונית: באותו זמן שבו ויקיפדיה מקשיחה את הכללים כלפי כתיבה גנרטיבית בתוך הפלטפורמה, קרן ויקימדיה מרחיבה את יחסיה עם חברות AI שמשתמשות בתוכן שלה בקנה מידה עצום. לפי דיווח של AP מינואר 2026, הקרן חתמה על הסכמים מסחריים עם שחקניות כמו Amazon, Meta, Microsoft, Perplexity ו-Mistral לגישה ייעודית לתוכן דרך Wikimedia Enterprise. ג'ימי ויילס עצמו הבהיר כי הוא אינו מתנגד לכך שמודלי AI יתאמנו על ויקיפדיה, כל עוד החברות גם משתתפות בעלות התחזוקה של המשאב הציבורי הזה. במילים אחרות, ויקיפדיה מוכנה להיות תשתית ידע לעולם ה-AI, אך אינה מוכנה שעולם ה-AI יכתיב מחדש את כללי הכתיבה בתוכה. זהו הבדל מהותי בין שימוש בתוכן כמאגר ידע לבין שימוש במכונה ככותבת אנציקלופדית.
מה קורה בשפות אחרות, ומה אפשר ללמוד מזה
הדיון אינו מוגבל לוויקיפדיה באנגלית. לפי דיווחים מהחודש האחרון, גם הקהילה של ויקיפדיה בגרמנית אימצה קו נוקשה ואף רחב יותר, שלפיו פרסום טקסטים שנוצרו או נערכו באמצעות מודלי שפה אסור במפורש, לא רק בערכים אלא גם בדפי שיחה, עם חריגים לתרגום, תיקוני איות ומחקר שנבדק ידנית. ההצעה שם עברה ברוב של 208 מול 108. לעומת זאת, בקהילות אחרות ניכרת גישה גמישה יותר, שמעדיפה ניקוי ממוקד של תוכן בעייתי על פני איסור גורף. השונות הזאת מלמדת משהו חשוב על מבנה הכוח בוויקיפדיה: אין כאן רגולטור מרכזי אחד שמחיל מדיניות אחידה על כל השפות. כל קהילה מאזנת בעצמה בין פתיחות טכנולוגית, משאבי אכיפה, תרבות דיון פנימית ורמת האמון שלה ביכולות הזיהוי והבקרה.
מנקודת מבט ישראלית, זהו שיעור רלוונטי במיוחד. הקהילות הקטנות יותר של ויקיפדיה, ובהן גם קהילות שפה שאינן אנגלית, פועלות עם פחות עורכים פעילים, פחות מנגנוני ניטור, ולעיתים גם פחות מומחיות טכנית לאיתור דפוסים גנרטיביים. לכן השאלה אינה רק עקרונית אלא גם תפעולית: האם לקהילה יש כוח אדם מספיק כדי לבדוק כל ניסוח ש-AI מציע? האם יש מי שיבדוק מקורות בשפות שונות? האם אפשר להסתמך על זיהוי סגנוני כאשר מודלים משתפרים במהירות? במובן הזה, המדיניות המחמירה של ויקיפדיה באנגלית עשויה להשפיע גם על קהילות קטנות יותר, משום שהיא מספקת תקדים נורמטיבי: כשאין משאבי פיקוח בלתי מוגבלים, עדיף לעיתים להקטין מראש את טווח השימוש המותר מאשר לרדוף בדיעבד אחרי שגיאות סמנטיות חמקמקות.
ההשלכות הרחבות: על הידע ברשת, על חברות AI ועל קוראים
ההחלטה של ויקיפדיה מהדהדת הרבה מעבר לאנציקלופדיה עצמה. ראשית, היא מחזקת את הרעיון שלפיו בעידן שבו הרשת מוצפת בתוכן סינתטי, ערך של פלטפורמה אינו נמדד רק בכמות המידע אלא גם באיכות תהליך האימות. ויקיפדיה מבקשת לבדל את עצמה לא כאתר נטול AI, אלא כאתר שבו האחריות על הידע נשארת אנושית. שנית, זהו מסר לחברות AI: אם ויקיפדיה היא מקור אימון מרכזי, היא גם מצפה שיבינו מדוע אי אפשר להחזיר אליה טקסטים מכונתיים כאילו היו תרומה שוות ערך למתנדב שקרא, בדק, ניסח ועמד מאחורי דבריו. שלישית, עבור קוראים, ההחלטה עשויה דווקא לחזק אמון. בעולם שבו יותר ויותר תשובות נשלפות בצ'אטבוט בלי שקיפות מספקת, ויקיפדיה מנסה לשמר יתרון תחרותי של אחריות, עקיבות ודיון פתוח על כל משפט שנכתב.
- עבור ויקיפדיה: חיזוק המותג כמקור ידע אנושי, בדוק וניתן לאימות.
- עבור חברות AI: תזכורת לכך ששימוש בתוכן ויקיפדיה אינו זהה להשתתפות בתהליך העריכה שלה.
- עבור עורכים: הקלה מסוימת במאבק נגד שכתוב גנרטיבי שקשה לאתר ולתקן.
- עבור קוראים: סיכוי גבוה יותר להבחין בין מאגר ידע קהילתי לבין טקסטים אוטומטיים שנראים סמכותיים רק על פני השטח.
ובכל זאת, אין כאן פתרון קסם. גם תומכי המדיניות מודים בעקיפין שקשה מאוד לאכוף איסור כזה באופן מושלם. זיהוי טקסט גנרטיבי נשען לעיתים על סימנים סגנוניים, על שגיאות אופייניות, על נוסחים כלליים מדי, או על השוואה בין תוכן למקורות, אבל ככל שהמודלים משתפרים כך פוחתת היכולת להוכיח בוודאות מה נכתב בידי אדם ומה נוסח בידי מכונה. לכן סביר שהאכיפה בפועל תישען פחות על "בלשות AI" ויותר על מבחן התוצאה: האם הטקסט עומד בסטנדרטים של נייטרליות, אימות, נאמנות למקורות וסגנון אנציקלופדי. במובן הזה, המדיניות החדשה היא גם הצהרה ערכית וגם כלי ניהולי. היא מעניקה לעורכים בסיס חזק יותר להתערבות כאשר מתעורר חשד, גם אם אי אפשר תמיד להפיק הוכחה פורנזית חד-משמעית.
השורה התחתונה ברורה: ויקיפדיה אינה סוגרת את הדלת בפני בינה מלאכותית, אבל היא מסרבת למסור לה את העט. זהו צעד שמבטא זהירות מוסדית בעולם שבו הלחץ להפוך כל תהליך לאוטומטי הולך וגובר. מבחינת הקהילה, אנציקלופדיה אינה רק אוסף משפטים נכונים פחות או יותר, אלא מנגנון חברתי של אחריות, מחלוקת, ניסוח זהיר, והיצמדות למקורות. מודל שפה יכול לעזור בשוליים, אך הוא אינו נושא באחריות הציבורית שהקהילה דורשת מעורכיה. עבור ישראלים שעוקבים אחר השפעת ה-AI על חינוך, תקשורת ומרחב הידע, זהו רגע חשוב: אחת הפלטפורמות המרכזיות בעולם בחרה להצהיר שהעתיד של ידע אמין אינו בהכרח פחות אנושי, אלא אולי דווקא יותר. ככל שהאינטרנט מתמלא בטקסטים שנכתבים במהירות, הערך של כתיבה איטית, זהירה ואחראית רק עולה.