מחקר חדש של חברת צ'ק פוינט הישראלית, שפורסם לאחרונה, מספק דוגמה בולטת לתפקוד תקין של מערכת האבטחה בעולם ה-AI: חוקרים זיהו חולשה ב-ChatGPT, דיווחו עליה ל-OpenAI בתהליך גילוי אחראי, והחברה תיקנה אותה במלואה ב-20 בפברואר — לפני שגורם עוין כלשהו הספיק לנצל אותה. לפי OpenAI, לא נמצאו ראיות לכל ניצול בפועל של הפרצה.
החולשה שזוהתה אפשרה, בתנאים מבוקרים של מחקר, "שאיבה" שקטה של נתונים משיחות משתמשים — כולל מידע רפואי ופיננסי — ללא אינדיקציה גלויה. עצם הגילוי מדגיש עד כמה חשוב המחקר הפרואקטיבי של קהילת אבטחת המידע בשמירה על המשתמשים.
**המסלול העוקף שזוהה ונחסם: ניצול ה-DNS**
מערכת ChatGPT תוכננה עם מנגנוני הגנה נוקשים: סביבת הרצת הקוד מבודדת מהאינטרנט, וכל שליחת מידע לגיטימית החוצה מחייבת אישור משתמש מפורש. החוקרים מצאו ערוץ צדדי נסתר בתוך סביבת הלינוקס של המודל — שירות ה-DNS (פענוח שמות דומיין) — שאפשר קידוד נתונים בתוך שאילתות תמימות לכאורה, מבלי להפעיל התרעות. מאז התיקון, פרצה זו חסומה לחלוטין.
**ניסוי ה-GPT המותאם: לקח לתעשייה**
חוקרי צ'ק פוינט הדגימו גם כיצד GPTs מותאמים אישית עלולים להוות סיכון: בניסוי מבוקר, הקימו "רופא אישי" מבוסס AI, שבו משתמש שהעלה תוצאות בדיקות רפואיות קיבל אבחנה שנראתה מקצועית, בעוד פרטים אישיים הועברו לשרת חיצוני בשליטת החוקרים. הניסוי נועד לחשוף את הפוטנציאל לשימוש לרעה — ועשה זאת בסביבה בטוחה ואחראית לפני שנזק אמיתי נגרם.
**המסר לארגונים: להיערך מראש**
המחקר מחזק עיקרון מוכר בעולם הסייבר: אבטחה מובנית של פלטפורמות AI, ככל שתהיה מתוחכמת, אינה תחליף לשכבת הגנה עצמאית נוספת ברמת הארגון. בדומה לשירותי ענן, ארגונים המשתמשים בכלי AI לטיפול במידע רגיש — נתונים רפואיים, חוזים, מסמכים פנימיים — מתבקשים לאמץ מדיניות אבטחה ייעודית ולא להסתמך על הגדרות ברירת מחדל בלבד.
המקרה ממחיש בבהירות כיצד שיתוף פעולה פורה בין חברות אבטחה לספקי AI — הנשען על שקיפות, גילוי אחראי ותגובה מהירה — הוא המנגנון האמין ביותר להגנה על המידע הרגיש של המשתמשים.