קשה לזכור חודש אחד שבו Anthropic נראתה בו בעת ובעונה אחת חזקה יותר ופגיעה יותר. מצד אחד, החברה ממשיכה למצב את Claude כאחד ממוצרי ה-AI הרציניים ביותר בשוק, עם דגש מובהק על קידוד, בטיחות ולקוחות ארגוניים. מצד אחר, השבוע האחרון של מרץ 2026 הפך לסיוט תדמיתי: תחילה נחשף כי אלפי קבצים פנימיים היו זמינים לציבור בשל כשל אנושי, ובהמשך דווח כי מאות אלפי שורות קוד של Claude Code דלפו החוצה. כל זה הגיע אחרי שורת תקלות שירות במהלך החודש ועימות משפטי מתוקשר מול הממשל האמריקאי. לפי דיווחים ב-TechCrunch, Fortune, Axios וכלי תקשורת נוספים, הסיפור של Anthropic כרגע אינו רק טכני אלא בעיקר סיפור על פער הולך ומתרחב בין תדמית של "חברת בטיחות" לבין משמעת תפעולית בפועל.
מה קרה בפועל: רצף של אירועים חריגים בתוך ימים
הטריגר המרכזי לכתבת TechCrunch היה רצף מביך במיוחד. לפי דיווח של Fortune מסוף מרץ, מאגר ציבורי של החברה הכיל קרוב ל-3,000 נכסים וקבצים שלא היו אמורים להיות חשופים, ובהם טיוטות, חומרים שיווקיים ומסמכים פנימיים, כולל אזכורים למודל עתידי שטרם הושק. זמן קצר לאחר מכן, Axios דיווח כי דליפה נוספת אפשרה שחזור של כ-500 אלף שורות קוד של Claude Code כלי הפיתוח של Anthropic באופן שסיפק למפתחים ולמתחרים הצצה עמוקה לארכיטקטורה, לפיצ'רים ולמפת הדרכים של החברה. ב-Anthropic הבהירו שלא נחשפו נתוני לקוחות או אישורי גישה, אך מבחינת ניהול סיכונים מדובר במכה כפולה: גם נכסי מידע אסטרטגיים דלפו, וגם הנרטיב של שליטה הדוקה ובטיחות קיבל סדק נראה לעין.
- חשיפה של אלפי קבצים פנימיים במאגר שהיה נגיש לציבור.
- דליפה רחבה של קוד המקור של Claude Code בהיקף של כ-500 אלף שורות.
- הבהרה מצד החברה כי לא נחשפו פרטי לקוחות או מפתחות גישה.
- פגיעה במוניטין של Anthropic דווקא בתחום שבו היא מבקשת לבדל את עצמה: משמעת בטיחותית.
הבעיה אינה רק עצם הדליפה, אלא מה שהיא מסמלת. Anthropic בנתה את עצמה במשך שנים כחברה שמדברת בשפה של זהירות, הערכת סיכונים, שקיפות יחסית ומגבלות שימוש. היא מפרסמת מחקרי בטיחות, מסמכי מדיניות והערכות סיכונים בהיקף שמעט מאוד מתחרות עושות. לכן, כשהתקלות האחרונות מיוחסות ל"טעות אנוש" ובמיוחד כאשר מדובר בפעם השנייה באותו שבוע הביקורת הופכת לחדה יותר. חברה שמזהירה בלי הרף מפני כשלים מערכתיים ב-AI נבחנת עכשיו בשאלה בסיסית הרבה יותר: האם היא מצליחה לנהל נכון את הסיכונים הפנימיים שלה עצמה. זהו מעבר מסיפור של חדשנות לסיפור של ממשל תאגידי, בקרות, DevSecOps ומשמעת ארגונית.
לא רק דליפות: מרץ התאפיין גם בשורת השבתות של Claude
הקונטקסט חשוב: הדליפות לא אירעו בוואקום. במהלך מרץ דווח שוב ושוב על תקלות שירות ב-Claude, הן בממשק הצרכני והן בחלק מהכלים למפתחים. בתחילת החודש TechCrunch דיווחה על השבתה רחבה שפגעה ב-Claude.ai ובמסלולי ההתחברות וההתנתקות. בהמשך החודש הופיעו דיווחים נוספים על שיבושים, שיעורי שגיאה גבוהים וקשיי גישה, גם אם לא כל האירועים קיבלו ניתוח פוסט-מורטם מפורט מהחברה. בעולם ה-AI של 2026, אמינות היא כבר לא בונוס אלא תנאי יסוד. לקוחות ארגוניים לא קונים רק מודל חכם; הם קונים זמינות, חיזוי עומסים, SLA, שליטה בהרשאות ויכולת לבנות סביב המערכת תהליכי עבודה קריטיים. לכן, כשחודש אחד כולל גם דליפות מידע וגם סדרת השבתות, התמונה הכוללת נעשית כבדה הרבה יותר.
מבחינת Anthropic, זו נקודה רגישה במיוחד משום שהביקוש ל-Claude דווקא עולה. החברה ממשיכה לדחוף את Claude Code ואת דגמי Opus 4.6 ו-Sonnet 4.6, ולפי הפרסומים הרשמיים היא מציגה שיפור בולט ביכולות קידוד, מציאת חולשות אבטחה ועבודה עם הקשר רחב. בדיווחים שונים צוין גם חלון הקשר של עד מיליון טוקנים בחלק מהתצורות נתון שמחזק את הפנייה לצוותי פיתוח, אנליסטים וארגונים עתירי מסמכים. במילים אחרות, Anthropic נמצאת בשלב שבו היא מנסה להפוך מספקית מודלים לחברת פלטפורמה. דווקא בשלב כזה, כל כשל תפעולי גורם ללקוחות לשאול אם אפשר לסמוך עליה כשכבה מרכזית בשרשרת הייצור הארגונית.
הפרדוקס של Anthropic: מובילה בבטיחות, נבחנת על משמעת
כאן טמון הפרדוקס הגדול ביותר של הסיפור. Anthropic אינה עוד סטארט-אפ שמוכר אוטומציה במחיר נמוך; היא אחת החברות המזוהות ביותר עם השיח על AI Safety. היא מתריעה מפני שימוש זדוני, מפרסמת מסמכי שקיפות, ומנהליה הבכירים ובראשם Dario Amodei מזוהים עם קו שמרני יחסית ביחס לפריסה לא מבוקרת של יכולות AI מתקדמות. לפי דיווחים קודמים, החברה אף החילה אמצעי הגנה מחמירים יותר על דגמים מתקדמים בשל חשש משימושים מסוכנים בתחומי סייבר, כימיה וביולוגיה. אבל בטיחות אינה נמדדת רק בשכבת המודל; היא נבחנת גם בהיגיינת אבטחה, בניהול הרשאות, בהגדרת ברירות מחדל ובהפרדה בין סביבת עבודה פנימית לבין נכסים ציבוריים. מבחינה זו, מרץ 2026 עלול להפוך לרגע שבו השוק מתחיל לבחון את Anthropic לפי הסטנדרט שהיא עצמה קבעה.
- בטיחות מודל: מניעת שימושים מסוכנים, בקרות והרשאות.
- בטיחות תפעולית: הפרדת סביבות, בקרת גישה, ניהול קבצים וקונפיגורציות.
- אמינות שירות: זמינות, התאוששות מתקלות, תקשורת עם לקוחות ופוסט-מורטם.
- אמון שוק: היכולת לגבות הצהרות ערכיות בנהלים ובביצוע עקבי.
הפער הזה חשוב גם מפני ש-Anthropic מתחרה כיום על לקוחות שאינם מחפשים רק "צ'אטבוט טוב", אלא ספק אסטרטגי. מפתח שבוחר Claude Code, או ארגון שבונה תהליכי פיתוח, מחקר ותמיכה סביב Claude API, מפקיד בידי החברה חלק מהתפעול היומיומי שלו. כאשר קוד מקור דולף, אפילו בלי דליפת נתוני לקוחות, נוצרה תחושה של חוסר יציבות. המתחרים, כמובן, אינם זקוקים ליותר מזה כדי לחדד מסרים: OpenAI, Google, Microsoft ושחקנים נוספים מנסים לשכנע את השוק שהם מציעים לא רק מודל חזק, אלא אקו-סיסטם תפעולי בשל יותר. זהו כבר לא ויכוח על benchmark כזה או אחר; זהו ויכוח על בשלות ארגונית.
ברקע: עימות חריף עם הפנטגון והשלכות על התדמית
אל המשבר התפעולי הצטרף בחודש האחרון גם עימות משפטי ופוליטי חריג מול משרד ההגנה האמריקאי. לפי דיווחי AP, TechCrunch, Axios וה-Guardian, Anthropic הגישה תביעה נגד הממשל לאחר שסומנה כ"סיכון בשרשרת האספקה" בעקבות מחלוקת על אופן השימוש הצבאי ב-Claude ועל דרישות להקלת מגבלות מסוימות. בסוף מרץ קבעה שופטת פדרלית כי יש לעכב זמנית את הצעדים נגד החברה, במהלך שנתפס כניצחון מוקדם ל-Anthropic. מבחינה תדמיתית, זהו סיפור מורכב: מצד אחד, החברה מציגה עמידה עקרונית מול דרישות ממשלתיות ומחזקת את דימויה כשחקנית ערכית. מצד אחר, כאשר במקביל נחשפות תקלות אבטחה ודליפות, המסר הערכי מסתבך. קשה לטעון לעליונות מוסרית כאשר היסודות התפעוליים נתפסים כרופפים.
העיתוי גם בעייתי מבחינה עסקית. Anthropic הגיעה לשנים 2025–2026 עם צמיחה מרשימה, גיוסים ענקיים ושווי שכבר נמדד בעשרות מיליארדי דולרים. במרץ 2025 היא גייסה 3.5 מיליארד דולר לפי שווי של 61.5 מיליארד דולר, ובהמשך 2025 דווח על קפיצה חדה נוספת בשווי. בחברות בסדר גודל כזה, השוק אינו סלחני כלפי "טעויות של סטארט-אפ". משקיעים, לקוחות וממשלים מצפים לתהליכים של חברה בשלה: בקרה על מאגרים, תגובה מהירה, תקשורת מסודרת, חקירה פנימית והפקת לקחים. לכן, גם אם Anthropic תצלח את האירועים האחרונים ללא פגיעה מיידית בהכנסות, השאלה הגדולה היא אם תצליח למנוע מהם להפוך לנקודת מפנה בנרטיב סביבה.
למה זה חשוב לישראל: בחירת ספקי AI נעשית זהירה יותר
מנקודת מבט ישראלית, הסיפור של Anthropic רלוונטי הרבה מעבר לרכילות תעשייתית. יותר ויותר חברות מקומיות מסטארט-אפים ועד ארגוני אנטרפרייז, גופי סייבר, פינטק ובריאות בונות מוצרים, סוכנים וכלי פיתוח על גבי מודלי צד שלישי. עבורן, השאלות החשובות אינן רק איכות התשובה או מחיר לטוקן, אלא גם יציבות פלטפורמה, אבטחת שרשרת אספקה, יכולת עבודה רב-מודלית, מדיניות נתונים, והתאמה לדרישות רגולציה ולקוחות גלובליים. ישראל, שבה חלק גדול מהחדשנות מרוכז ב-DevTools, סייבר ותשתיות ענן, רגישה במיוחד לכל מה שנוגע לדליפות קוד, הרשאות יתר וחוסר שקיפות סביב תקלות. במובן הזה, האירועים סביב Anthropic הם תזכורת שימושית לכל צוות מוצר והנדסה: ספק AI הוא כבר חלק מליבת המערכת, לא רק תוסף חיצוני.
- לבנות ארכיטקטורת multi-provider ולא להסתמך על ספק אחד בלבד.
- להגדיר נהלי fallback למקרים של השבתה, הגבלת קצב או ירידת ביצועים.
- לדרוש שקיפות סביב אירועי אבטחה, שינויים במדיניות ושדרוגי מודלים.
- להפריד בין מידע רגיש לבין משימות שאפשר לשלוח לכלי AI חיצוניים.
- לבחון לא רק benchmark, אלא גם בשלות תפעולית, מסמכי תאימות והיסטוריית תקלות.
באותה מידה, יש כאן גם לקח עבור הסטארט-אפים הישראליים עצמם. בעידן שבו כולם ממהרים להוסיף Agent, Copilot או שכבת אוטומציה חכמה, קל להתמקד במהירות שחרור וביכולות הדגמה. אולם השוק נע כעת לכיוון אחר: מי שיצליח יהיה מי שיידע לחבר בין מודל חזק לבין אמינות תפעולית, בקרה על נתונים, הרשאות מדויקות ושירות יציב. Anthropic, למרות יתרונותיה, מזכירה לכולם שאפילו חברה שמובילה בשיח על בטיחות יכולה להסתבך בשאלות בסיסיות של משמעת הנדסית. עבור ישראל, שמייצאת טכנולוגיה ללקוחות גלובליים ודורשת אמון גבוה במיוחד, זהו שיעור חשוב מאין כמותו.
השורה התחתונה: חודש רע תפעולית, לא בהכרח אסטרטגית
האם מרץ 2026 ייזכר כחודש ששבר את Anthropic? כנראה שלא. החברה עדיין נהנית ממותג חזק, מביקוש גובר, ממוצרי דגל משמעותיים וממיצוב ייחודי בצומת שבין AI מתקדם, פיתוח תוכנה ובטיחות. אבל זה בהחלט עשוי להיות החודש שבו התברר כי היתרון המוסרי והתדמיתי שלה אינו חסין מפני טעויות תפעוליות חוזרות. אם החברה תגיב בשקיפות, תחזק בקרות, תציג תחקירים אמינים ותשפר את יציבות Claude, ייתכן שהשוק יראה באירועים הללו כאפיזודה לא נעימה בדרך להתבגרות. אם לא, המתחרות ינצלו את הרגע כדי לטעון שהבטחות לבטיחות אינן מספיקות בלי תשתית ארגונית תואמת. בסופו של דבר, זה הסיפור האמיתי שמסתתר מאחורי הכותרת של TechCrunch: Anthropic אכן "עוברת חודש", אבל השאלה החשובה היא אם היא גם לומדת ממנו.
עבור השוק כולו, המסקנה רחבה אפילו יותר. תעשיית ה-AI יוצאת משלב ההתלהבות ונכנסת לעידן האחריות. מי שירצה להוביל ב-2026 ובשנים שאחריה לא יוכל להסתפק במודל חכם יותר או בחלון הקשר גדול יותר. הוא יצטרך להוכיח עמידות, סדרי עבודה, היגיינת אבטחה, משמעת תפעולית ותקשורת אמינה ברגעי משבר. במקרה של Anthropic, היתרונות הטכנולוגיים עדיין ברורים מאוד אבל גם מבחן הבגרות כבר התחיל.
