Barry Diller על Sam Altman, OpenAI ו-AGI: אמון אישי לא מספיק בלי פיקוח

Barry Diller יצא להגנת Sam Altman, אך הדגיש שהשאלה החשובה באמת אינה אם מנכ"ל OpenAI אמין אלא מי מפקח על פיתוח AGI ומציב לו גבולות. על רקע הלחץ הגובר על OpenAI, המשפט מול Elon Musk והשינויים בחברה, דבריו ממקדים את הדיון בממשל, אחריות ופיקוח ולא באדם אחד.

תגיות
Barry DillerSam AltmanOpenAIAGIAI Governanceבינה מלאכותית
מניות רלוונטיות:⚠️ ניתוח AI - אינו ייעוץ פיננסי
MSFTMicrosoft Corporation
מיקרוסופט מושפעת ישירות משום שהיא השותפה המסחרית המרכזית של OpenAI, והכתבה מדגישה לחץ גובר סביב ממשל, פיקוח ושינויי יחסים מסחריים. זה עשוי להגביר אי-ודאות רגולטורית ועסקית סביב השקעתה ושותפות ה-AI שלה.
GOOGLAlphabet Inc.
אלפאבית חשופה ישירות לשיח הרחב על פיקוח ורגולציה ב-AI, משום שהיא אחת השחקניות המרכזיות בתחום. הדגש בכתבה על צורך ב-guardrails ובפיקוח חזק יותר עשוי להכביד על סנטימנט המשקיעים כלפי חברות AI גדולות.
AMZNAmazon.com, Inc.
אמזון מושפעת דרך פעילות הענן וה-AI שלה, במיוחד כאשר הכתבה מצביעה על מעבר משיח של אמון אישי לשיח של רגולציה, בקרה ואחריות. סביבה כזו עלולה להוביל לעלויות ציות גבוהות יותר וללחץ על תחום ה-AI.

Barry Diller, מאנשי המדיה המשפיעים בארצות הברית, בחר השבוע לנסח עמדה מורכבת ביחס ל-Sam Altman ול-OpenAI: מצד אחד, הוא אמר כי אינו סבור ש-Altman אינו ראוי לאמון, גם על רקע הדיווחים האחרונים והביקורת שנשמעה מצד בכירים ועמיתים לשעבר; מצד אחר, הוא הזהיר כי ככל שמתקרבים לעידן של AGI, עצם השאלה אם המנכ"ל אמין או לא הופכת למשנית. לפי הדיווח ב-TechCrunch, Diller אמר בכנס Future of Everything של The Wall Street Journal כי "אמון אינו רלוונטי" כאשר גם היוצרים עצמם אינם יודעים במלואם אילו השלכות יהיו למערכות שהם בונים. בכך הוא העביר את מרכז הכובד מהדיון בדמותו של מנהל אחד אל הסוגיה הרחבה יותר: מי אמור להציב כללים, מעצורים ואחריות למערכות בינה מלאכותית כללית.

מה בדיוק אמר Diller, ולמה הדברים שלו בולטים עכשיו

לפי הדיווחים, Diller נשאל אם הציבור צריך לתת אמון ב-Altman כדי להבטיח שבינה מלאכותית תשרת את האנושות. תשובתו הייתה כפולה: הוא העיד כי לדעתו Altman כן פועל בכנות, אך הוסיף שהמוקד האמיתי הוא הלא-נודע. לדבריו, AI מתקדם הרבה מעבר לשאלה אם אדם מסוים הוא ישר, מפני שההפתעות אינן מוגבלות רק למשתמשים, למשקיעים או לרגולטורים, אלא גם למהנדסים ולחוקרים עצמם. זהו ניסוח חד, מפוכח למדי, משום שהוא לא מבטל את חשיבות האמון, אך מסמן בבירור את מגבלותיו. בעולם שבו מודלים מציגים יכולות חדשות, התנהגויות emergent ושימושים שלא נחזו מראש, אמון במנכ"ל או במייסד כבר אינו מנגנון שליטה מספק. מבחינת Diller, ואפשר לומר גם מבחינת חלקים הולכים וגדלים בתעשייה, נדרשת מסגרת מוסדית חזקה יותר מהבטחה אישית.

  • Diller לא טען ש-Sam Altman אינו אמין; להפך, הוא הגן עליו אישית.
  • הוא כן טען שאמון אישי אינו מנגנון מספק לניהול סיכוני AGI.
  • המסר המרכזי: גם יוצרי המערכות אינם יודעים במלואם מה יהיו התוצאות.
  • מכאן נובעת הדרישה ל-guardrails, פיקוח ותיאום רחב יותר.

העיתוי של האמירה הזו משמעותי במיוחד. בשבועות האחרונים גבר מחדש העיסוק הציבורי בשאלת האמינות של Altman, בין היתר בעקבות תחקיר רחב ב-The New Yorker, שתיאר טענות של גורמים לשעבר ב-OpenAI ושל חברי הנהלה קודמים שלפיהן Altman נהג לעיתים באופן מניפולטיבי או לא שקוף. במקביל, המשפט המתוקשר בין Elon Musk לבין OpenAI ו-Altman מחזיר לבמה את המחלוקת הישנה על ייעוד החברה: האם היא עדיין מונחית בראש ובראשונה על ידי אינטרס ציבורי, או שהפכה בפועל לחברת תשתיות ויישומים שמאזנת בין חזון, הון וכוח שוק. בתוך הרעש הזה, Diller מנסה להזיז את הוויכוח למישור אחר: גם אם אדם מסוים ישר, וגם אם החזון מוצהר כראוי, ייתכן שזה פשוט לא מספיק מול טכנולוגיה שהשלכותיה אינן צפויות.

הקשר הרחב: OpenAI מדברת על אחריות, אבל הלחץ סביבה גובר

הדברים של Diller משתלבים היטב גם במסרים ש-OpenAI עצמה מפרסמת כעת. בסוף אפריל 2026 פרסם Sam Altman מסמך עקרונות חדש של החברה, שבו חזרה OpenAI על הטענה כי משימתה היא להבטיח ש-AGI ייטיב עם כלל האנושות. במסמך הודגש כי אף מעבדה אחת אינה יכולה להבטיח לבדה עתיד טוב, וכי יש צורך בשיתוף פעולה עם ממשלות, מוסדות בינלאומיים וחברות אחרות, לצד פריסה הדרגתית של יכולות ולמידה מתמשכת מהשפעותיהן בעולם האמיתי. Altman אף כתב במפורש כי החברה ראויה לרמת ביקורת גבוהה מאוד, וכי היא לא תקבל כל החלטה נכון. זהו ניסוח שמודה בחוסר הוודאות ובצורך ב-course correction, אך גם ממחיש את הפער שבין הצהרות עקרוניות לבין השאלה כיצד מתרגמים אותן למדיניות אכיפה, ממשל תאגידי וכללי בטיחות מחייבים.

כאן בדיוק נמצא לב הסיפור: OpenAI מנסה לבסס נרטיב של אחריות, שקיפות ולמידה מדורגת, אך פועלת במציאות שבה הקצב העסקי, התחרותי והמשפטי רק מואץ. לפי דיווחים מהשבועות האחרונים, החברה גם משנה חלק מהסדרי הכוח המסחריים שלה, כולל היחסים עם Microsoft, באופן שמרחיב את חופש הפעולה שלה מול פלטפורמות ענן ושותפויות עתידיות. במקביל, משפט Musk נגד OpenAI ממשיך להציף שאלות ישנות על שליטה, מטרות רווח והמשמעות המעשית של המונח AGI בתוך הסכמים מסחריים. כאשר AGI אינו רק יעד מחקרי אלא גם סעיף חוזי, מותג ציבורי ומנוף מימון, ברור מדוע Diller טוען שאמון אישי אינו יכול להיות אמצעי הניהול המרכזי.

ממשל, בטיחות וכוח שוק: למה "אמון" כבר לא מספיק

הטענה של Diller משקפת שינוי עמוק בשיח סביב AI. בשנים הראשונות של גל ה-generative AI הציבור עסק לעיתים קרובות בדמויות: האם להאמין ל-Sam Altman, ל-Elon Musk, ל-Dario Amodei או למייסדים אחרים. אבל ככל שהמערכות מתקדמות, השאלה הופכת מוסדית: מי בודק, מי עוצר, מי נושא באחריות, ומי משלם את המחיר אם דברים משתבשים. גם במשפט המתנהל בקליפורניה נשמעו עדויות שלפיהן המאבק על עתיד ה-AI קיבל אופי של "winner take all", והאיום אינו רק טכנולוגי אלא גם מבני: ריכוז כוח אדיר בידי מספר מצומצם של חברות, מנהלים ומשקיעים. במובן הזה, Diller אינו רק מדבר על בטיחות אלגוריתמית, אלא גם על ממשל תאגידי, על איזונים ובלמים, ועל ההבנה ש-AGI, אם אכן יתקרב, לא יהיה עוד מוצר תוכנה רגיל.

  • פיקוח פנימי: מועצות בטיחות, ועדות ביקורת וסמכויות עצירה אמיתיות.
  • פיקוח חיצוני: רגולטורים, ממשלות וגופים בין-לאומיים עם גישה למידע מהותי.
  • שקיפות תפעולית: הסברים ברורים יותר על מדיניות פריסה, שימושים אסורים ותקריות.
  • הפרדת כוחות: צמצום מצב שבו אותו גוף גם מפתח, גם משווק וגם מגדיר לבדו את רף הסיכון.

מבחינה טכנית, הטיעון הזה נשען גם על תכונה מוכרת של מודלים מתקדמים: קושי גובר לנבא מראש אילו יכולות חדשות יצוצו בקנה מידה גדול, ובאילו הקשרים הן ינוצלו. מסמכי העקרונות של OpenAI עצמם מודים כי התנהגויות emergent והפתעות נוספות עוד צפויות בהמשך. זו הודאה חשובה, מפני שהיא מחלישה את התפיסה שלפיה חברה יכולה להבטיח שליטה מלאה רק באמצעות כוונות טובות או תרבות ארגונית. ברגע שמקבלים את ההנחה שהפתעות הן חלק מובנה מההתפתחות של המערכות, נדרשת תפיסה רגולטורית ותפעולית מסוג אחר: ניטור מתמשך, הגבלות שימוש, בדיקות צוותי red team, מנגנוני rollback ויכולת להאט פריסה גם במחיר עסקי. לכן האמירה של Diller נשמעת פחות כהתרסה נגד Altman, ויותר כהכרה מפוכחת במורכבות של המערכת כולה.

הזווית הישראלית: בין הזדמנות עסקית לצורך בבשלות רגולטורית

מנקודת מבט ישראלית, הדיון הזה אינו תיאורטי בלבד. ישראל היא שוק קטן יחסית, אך עם צפיפות גבוהה של חברות תוכנה, סייבר, פינטק, בריאות דיגיטלית וביטחון, כולן תחומים ש-AI מתקדם כבר חודר אליהם במהירות. עבור סטארט-אפים ישראליים, OpenAI ושחקניות דומות הן לעיתים ספקיות תשתית קריטיות, לא רק מודלים נוחים לשילוב. לכן כל דיון על ממשל, על גישה ליכולות מתקדמות, על מדיניות שימוש ועל סעיפי בטיחות משפיע ישירות גם על יזמים, משקיעים, חברות אינטגרציה ולקוחות ארגוניים בישראל. יתרה מכך, ישראל רגילה לחדשנות מהירה, אך פחות לפיקוח רוחבי על טכנולוגיות כלליות בעלות השפעה רוחבית. אם השוק המקומי רוצה להמשיך לאמץ AI בקצב גבוה, הוא יידרש במקביל לפתח שפה מוסדית בוגרת יותר: כללי ציות, בקרות מודל, מדיניות פרטיות, ומנגנוני אחריות ברורים בתוך ארגונים.

המשמעות לישראל בולטת במיוחד בשלושה מישורים. הראשון הוא מישור התעשייה: חברות ישראליות שמטמיעות מודלים מתקדמים יידרשו להוכיח ללקוחות ולרגולטורים שהן אינן נשענות רק על ההבטחות של ספק הפלטפורמה. השני הוא מישור המדיניות: גופים ממשלתיים יצטרכו להחליט אם להסתפק בהנחיות רכות או לקדם כללים מפורשים יותר לגבי שימוש ב-AI בתחומים רגישים. והשלישי הוא מישור ההון: משקיעים וקרנות יתחילו לשאול לא רק אם הסטארט-אפ משתמש ב-OpenAI, Anthropic או Google, אלא מהי אסטרטגיית הסיכון שלו, כיצד הוא מגדר תלות בספק יחיד, ואיך הוא נערך לשינויים פתאומיים בגישה למודלים או ביכולותיהם. במילים אחרות, גם בישראל הדיון עובר משאלת המוצר לשאלת הממשל.

  • לחברות ישראליות: לא להסתפק באמון בספק המודל; לבנות בקרות עצמאיות.
  • לרגולטורים: להתמקד בשימושים עתירי סיכון, ולא רק בהצהרות כלליות על חדשנות.
  • למשקיעים: לבחון תלות תשתיתית, סיכוני ציות ויכולת החלפה בין ספקי AI.
  • לארגונים ציבוריים: לקבוע מדיניות כתובה לגבי שימוש, בקרה ואחריות אנושית.

מה הסיפור הזה מלמד על השלב הבא בשוק ה-AI

בסופו של דבר, האמירה של Barry Diller מסמנת היטב את המעבר שעובר כעת עולם ה-AI: מעידן שבו הכריזמה של המייסד, ההילה של המעבדה והצהרות על "טובת האנושות" הספיקו כדי להוביל את הדיון, לעידן שבו השוק, המשפט והמדיניות דורשים מנגנונים קונקרטיים יותר. העובדה שהוא בחר להגן על Altman אישית אך באותה נשימה לומר שאמון אינו רלוונטי, היא אולי הניסוח החד ביותר של הפרדוקס שבו נמצאת התעשייה. מנהלים יכולים להיות רציניים, חוקרים יכולים להיות זהירים, וחברות יכולות לפרסם עקרונות אחראיים; ובכל זאת, אם המערכות מתקדמות מהר מן היכולת להבין, למדוד ולרסן אותן, האחריות לא יכולה להישאר ברמת הכוונה הטובה. מבחינת OpenAI, זו תזכורת לכך שהשיח הציבורי סביבה כבר אינו נסוב רק על ביצועים ומוצרים, אלא על הלגיטימציה שלה להחזיק בכוח טכנולוגי כה משמעותי.

מכאן גם החשיבות הרחבה של הפרשה: לא מדובר רק בעוד חילופי אמירות בין איל תקשורת למנכ"ל עמק הסיליקון, אלא בסימן למיסודו של ויכוח חדש. אם בעבר שאלו מי יגיע ראשון ל-AGI, כעת שואלים מי ינהל אותו, לפי אילו כללים, ובאיזו סמכות ציבורית. עבור OpenAI, המשפט מול Musk, הביקורת הציבורית על Altman, שינויי ההסכמים עם שותפות אסטרטגיות והצורך להמשיך לשכנע ממשלות, לקוחות ומשקיעים, כולם מתחברים כעת לנקודה אחת: העולם מוכן פחות ופחות להסתפק באמון אישי. עבור ישראל, זו תזכורת חשובה לאמץ AI לא רק במהירות, אלא גם באחריות. מי שיבין זאת מוקדם ייהנה לא רק מיתרון טכנולוגי, אלא גם מאמינות ארגונית ומוכנות טובה יותר לעידן שבו היכולת לבנות מודלים תהיה חשובה, אך היכולת למשול בהם תהיה חשובה לא פחות.

טוען...