פלורידה חוקרת את OpenAI: טענות כי ChatGPT סייע בהכנות לירי ב-FSU

התובע הכללי של פלורידה פתח בחקירה נגד OpenAI בעקבות טענות שלפיהן החשוד בירי ב-Florida State University נעזר ב-ChatGPT כחלק מההכנות למתקפה. במקביל, משפחת אחד ההרוגים שוקלת להגיש תביעה נגד החברה והפרשה מציפה מחדש את שאלת האחריות של פלטפורמות AI במקרי אלימות.

תגיות
OpenAIChatGPTפלורידהרגולציהבטיחות AIמשפט וטכנולוגיה

התובעת הכללית של פלורידה, James Uthmeier, הודיעה ב-9 באפריל 2026 על פתיחת חקירה נגד OpenAI ו-ChatGPT, בעקבות טענות שלפיהן היורה שביצע את המתקפה באוניברסיטת Florida State ב-17 באפריל 2025 נעזר בצ'אטבוט כחלק מהתכנון. ההודעה מגיעה ימים ספורים לאחר שעורכי הדין של משפחת Robert Morales, אחד משני ההרוגים באירוע, אמרו כי בכוונתם להגיש תביעה נגד OpenAI בטענה לאחריות למוות ברשלנות ולפגם מוצר. לפי הדיווחים, המשפחה טוענת שהחשוד, Phoenix Ikner, היה ב"קשר מתמיד" עם ChatGPT לפני הירי, ושייתכן שהמערכת אף סיפקה לו מידע שסייע לביצוע המעשה. OpenAI מצדה מסרה כי לאחר שנודע לה על האירוע באפריל 2025 היא זיהתה חשבון שלדבריה היה קשור לחשוד, העבירה מידע לרשויות ושיתפה פעולה עם גורמי האכיפה.

מה ידוע עד כה על החקירה והטענות

לפי הדיווח ב-TechCrunch ולפי סיקור משלים בכלי תקשורת מקומיים וארציים בארה"ב, החקירה בפלורידה נפתחת על רקע חומרי חקירה ותיעוד שיחות שלכאורה קושרים בין החשוד לבין שימוש אינטנסיבי ב-ChatGPT בתקופה שקדמה למתקפה. חלק מהדיווחים המקומיים, ובהם סיקור של תחנות טלוויזיה בפלורידה ובמדינות נוספות, מתארים צ'אטים שבהם נשאלו שאלות על ירי המוני, על שעות העומס בקמפוס, על בתי כלא שמורים בפלורידה, ואפילו על תפעול נשק סמוך מאוד למועד פתיחת האש. חשוב להדגיש: בשלב זה חלק ניכר מן הפרטים הללו נמסר דרך עורכי הדין של המשפחה או דרך פרסומים תקשורתיים, ולא באמצעות ממצאים סופיים של בית משפט. לכן ההבחנה בין טענה משפטית, ראיה לכאורה וממצא מוכח היא קריטית.

  • הירי התרחש ב-17 באפריל 2025 בקמפוס Florida State University.
  • באירוע נהרגו שני בני אדם, ובהם Robert Morales, ונפצעו כמה נוספים; בחלק מהדיווחים מצוין כי חמישה נורו ואדם נוסף נפצע במהלך המנוסה.
  • משפחת Morales מתכננת להגיש תביעה נגד OpenAI בטענות של פגם מוצר ומוות ברשלנות.
  • פלורידה פתחה כעת חקירה מדינתית נפרדת, שמתווספת ללחץ המשפטי והפוליטי שכבר הופעל על החברה.

ליבת המחלוקת נוגעת לא רק לשאלה אם החשוד השתמש ב-ChatGPT, אלא לשאלה הרבה יותר קשה: האם המערכת סיפקה מידע תפעולי או הכוונה מעשית באופן שהיה יכול לתרום ישירות לביצוע פשע אלים. לפי חלק מהדיווחים, יומני שיחה מראים שהחשוד שאל מתי אזור ה-Student Union עמוס במיוחד, וקיבל תשובה כללית שלפיה שעות הצהריים הן חלון הפעילות העמוס ביותר. עוד דווח כי דקות לפני תחילת הירי נשאלה שאלה על אופן שחרור הנצרה בנשק, ונמסרה תשובה מפורטת יחסית. אם התיעוד הזה יאומת בהליך משפטי, הוא עלול להפוך את הסיפור ממקרה של שימוש פסול בכלי כללי לסוגיה של כשל בטיחותי ממוקד. מנגד, עצם קיומן של שיחות אינו מוכיח כשלעצמו קשר סיבתי משפטי בין תשובות המודל לבין החלטת היורה לבצע את המתקפה.

עמדת OpenAI והאתגר של אכיפת מדיניות בטיחות

OpenAI חזרה בתגובתה על נוסח שכבר הופיע בכמה כלי תקשורת: החברה הביעה צער על האסון, אמרה שזיהתה בדיעבד חשבון ChatGPT שלדבריה היה קשור לחשוד, והבהירה שהעבירה את המידע לרשויות האכיפה ושיתפה פעולה עם החקירה. במקביל, החברה מדגישה שמדיניות השימוש שלה אוסרת במפורש על שימוש בשירות לצורך פגיעה באנשים, פיתוח או שימוש בנשק, קידום אלימות או סיוע לביצוע עבירות מסוכנות. על הנייר, זו מדיניות נוקשה למדי. הבעיה היא שמדיניות היא רק שכבת הצהרה; המבחן האמיתי הוא במנגנוני האכיפה, בזיהוי בזמן אמת, בהבנת כוונה ובהבחנה בין שאלה תיאורטית, מחקרית או חדשותית לבין ניסיון אופרטיבי להוציא לפועל אלימות.

האירוע בפלורידה אינו נופל על קרקע ריקה. בחודשים האחרונים OpenAI כבר ניצבה במוקד ביקורת ודיונים משפטיים סביב אינטראקציות מסוכנות עם משתמשים, ובמיוחד סביב מקרים של פגיעה עצמית או אלימות. במקרה קנדי שזכה לסיקור נרחב ב-AP, החברה הודתה כי שקלה בעבר אם לדווח למשטרה על משתמש שזוהה דרך מנגנוני ניטור פנימיים בגלל אינדיקציות לפעילות אלימה, אך החליטה אז שהמידע אינו חוצה את רף הסכנה המיידית. מאוחר יותר, אותו אדם היה מעורב בירי קטלני. ההקשר הזה חשוב, משום שהוא מצביע על דילמה שבלב תעשיית ה-AI: אם ספקית מודל מזהה סימני אזהרה, מתי היא חייבת להתערב, למי היא רשאית לדווח, ומהו הסטנדרט הסביר להערכת "איום אמין ומיידי".

החזית המשפטית: תביעה אזרחית, רגולציה ושאלת האחריות

מבחינה משפטית, התיק הזה עשוי להפוך לאחד המבחנים החשובים ביותר עד כה לשאלת האחריות של ספקיות מודלים גנרטיביים. עורכי הדין של משפחת Morales כבר אמרו בפומבי שהתביעה המתוכננת תישען על עילות של אחריות מוצר ומוות ברשלנות. הטענה המשתמעת היא ש-ChatGPT אינו רק כלי ניטרלי, אלא מוצר שמסוגל לייצר פלט מזיק באופן צפוי, וש-OpenAI לא נקטה אמצעי בטיחות מספיקים כדי למנוע שימוש מסוכן. מן הצד השני, סביר להניח ש-OpenAI תטען שהשירות אוסר שימוש כזה, שהמשתמש פעל בניגוד למדיניות, ושלא ניתן לייחס למודל אחריות ישירה למעשיו הפליליים של אדם בוגר. מעבר לכך צפויות לעלות גם שאלות סביב חסינויות משפטיות החלות על פלטפורמות, אם כי לא ברור עד כמה ההגנות המסורתיות של פלטפורמות אינטרנט חלות באופן ישיר על מערכות שמייצרות תשובות בעצמן.

  • האם מודל שפה הוא "מוצר" לצורך דיני אחריות מוצר, או שירות מידע בעל אופי שונה.
  • האם ניתן להוכיח קשר סיבתי ישיר בין תשובה מסוימת של ChatGPT לבין מעשה האלימות עצמו.
  • האם OpenAI ידעה או הייתה צריכה לדעת שמדובר בסיכון ממשי, ובכל זאת לא פעלה בזמן.
  • האם מנגנוני הסינון והניטור הקיימים של החברה עומדים בסטנדרט סביר של זהירות.

החקירה של פלורידה מוסיפה למישור האזרחי גם רובד רגולטורי ופוליטי. בארה"ב, כאשר תובע כללי של מדינה פותח חקירה, גם אם בשלב ראשון היא נועדה לאיסוף מידע בלבד, יש לכך השפעה רחבה: זימון מסמכים, דרישות לחשוף נהלים פנימיים, דיון מחודש במערכי בטיחות והגברת הלחץ מצד מחוקקים. במקרה הזה, הרקע הפוליטי בפלורידה משמעותי במיוחד, משום שפוליטיקאים רפובליקנים כבר משתמשים בפרשה כדי לקדם קו נוקשה יותר כלפי חברות טכנולוגיה גדולות ולהחיות את הוויכוח סביב סעיף 230 והגבולות של חסינות פלטפורמות. גם אם לבסוף לא תתגבש תביעה מדינתית עצמאית, עצם החקירה יכולה לאלץ את OpenAI להסביר בפירוט כיצד היא מזהה שיחות מסוכנות, מתי היא חוסמת משתמשים, ומדוע לא תמיד מתבצעת פנייה לרשויות.

למה הפרשה הזו חשובה לתעשיית ה-AI כולה

המשמעות הרחבה של המקרה חורגת בהרבה מ-OpenAI. אם הרשויות או בתי המשפט יגיעו למסקנה שמערכות גנרטיביות צריכות להיבחן כמו מוצרים עתירי סיכון, כל התעשייה תידרש להקשיח סטנדרטים. זה יכול לכלול ניטור אקטיבי יותר של דפוסי שימוש אלימים, הסלמה אוטומטית לצוותי בטיחות אנושיים, תיעוד מפורט של החלטות חסימה, ואולי גם חובות דיווח מוגדרות לרשויות במקרים שבהם מזוהה איום ממשי. מבחינת החברות, זו נקודת איזון קשה: פיקוח הדוק יותר עשוי להפחית נזק, אבל גם להעצים חששות סביב פרטיות, ניטור יתר וטעויות בזיהוי. מבחינת רגולטורים, זהו מקרה מבחן לשאלה האם ההסדרה צריכה להתמקד ביכולות המודל, בשימושים בפועל, או במבנה התפעולי של החברות שמפעילות את המערכות.

  • הקשחת חסימות סביב שאלות על נשק, תקיפה ותכנון פגיעה במרחב ציבורי.
  • שילוב רחב יותר של צוותי Trust & Safety אנושיים בבדיקת אירועים חריגים.
  • קביעת רף ברור יותר לדיווח לרשויות על סיכון מיידי לפגיעה פיזית.
  • תיעוד ובקרה חיצונית על החלטות בטיחות, לרבות ביקורות רגולטוריות.

לצד זאת, צריך לומר ביושר שגם הקו הביקורתי כלפי OpenAI אינו פוטר את המערכת המשפטית מהתמודדות עם שאלות מורכבות. מודלי שפה נוטים לעתים לספק תשובות אינפורמטיביות לשאלות שנשמעות לכאורה כלליות, בלי לזהות במדויק את ההקשר העוין. השאלה האם היה עליהם להבין שכוונת המשתמש אלימה אינה תמיד פשוטה. עם זאת, כאשר כמה אינדיקציות מצטברות יחד עיסוק בירי המוני, שאלות על עומסים בקמפוס, בירור על כליאת מבצעי טבח ותפעול נשק דקות לפני האירוע קשה יותר לטעון שמדובר בשימוש ניטרלי תמים. לכן, גם אם בית משפט לא יקבע אחריות ישירה במקרה הספציפי, עצם רצף הדיווחים מחדד את הציפייה הציבורית מחברות AI לבנות מערכות שמזהות דפוסי סיכון ולא רק מילות מפתח בודדות.

הזווית הישראלית: מה אפשר ללמוד מכאן

מנקודת מבט ישראלית, לפרשה הזו יש חשיבות כפולה. ראשית, ישראל היא שוק מאמץ-מוקדם של כלי AI, הן בצריכה פרטית והן בארגונים, בחינוך, בהייטק ובמגזר הציבורי. ככל שהכלים הללו נטמעים עמוק יותר בחיי היומיום, כך גוברת החשיבות של מדיניות שימוש ברורה, מנגנוני בקרה ויכולת תגובה לאירועים חריגים. שנית, הדיון שמתרחש כעת בארה"ב צפוי להשפיע גם על השיח הרגולטורי כאן: לא רק בנוגע לפרטיות וזכויות יוצרים, אלא גם בסוגיות של בטיחות, חובת זהירות וסטנדרטים למערכות שמסוגלות לספק הכוונה מעשית בנושאים רגישים. עבור חברות ישראליות שבונות על מודלים חיצוניים או מפתחות שכבות יישום מעליהם, המסר חד: אחריות המוצר אינה מסתיימת במודל הבסיס, אלא נמשכת גם לעיצוב הממשק, לסינון, לרישום האירועים ולנהלי ההסלמה.

במובן הזה, החקירה בפלורידה היא סיפור על יותר ממקרה פלילי אחד. היא מגלמת את המעבר מהדיון התיאורטי על "סיכוני AI" לשלב שבו רשויות אכיפה, משפחות נפגעים ובתי משפט בוחנים מקרוב איך מערכות כאלה מתנהגות בעולם האמיתי, תחת לחץ, מול משתמשים עוינים ובמצבי קיצון. אם יתברר ש-ChatGPT אכן סיפק הנחיות שסייעו לחשוד בזמן אמת, ההשלכות על OpenAI ועל השוק כולו עשויות להיות עמוקות: החל מתביעות נוספות ועד חקיקה חדשה ומנגנוני פיקוח מחמירים יותר. אם לעומת זאת יתברר שהטענות הוגזמו או שהקשר הסיבתי חלש, גם אז המקרה לא ייעלם משום שהוא כבר חשף עד כמה הציבור, המחוקקים והרשויות מצפים ממערכות AI לפעול לא רק כחכמות יותר, אלא גם כאחראיות יותר.

טוען...