אנתרופיק מזהירה: הדגם העתידי של Claude Mythos יהפוך ל־«וונדר-וואהו» עבור האקרים.
האיומים הסייבריים ממודלים AI חדשים: מה על חברות לדעת
האם זה משנה את המצב? Anthropic מכינה את Claude Mythos מערכת הבטיחה גישה אוטונומית, מדויקת ומורכבת למערכות ארגוניות, ממשלתיות וקומונליות. לפי הערכת Axios, בשנת 2026 הסיכון לתקיפות רחבות בסיוע שלה יעלה משמעותית. הטענות על «הובלה» לעומת AI אחרים בבלוג Anthropic מציינת ש-Mythos כבר חורגת מכל המודלים הקיימים מבחינת יכולות סייבר ומצפה לגל של תקיפות שתדחוף את מאמצי ההגנה. דוגמאות אמיתיות ראשונות: בסוף 2025 קבוצה נתמכת על ידי המדינה הסינית השתמשה ב- AI‑agents כדי לפרוץ באופן אוטונומי כ-30 מטרות ברחבי העולם. ה-AI עצמאן מבצע בין 80 % ל-90 % מהפעולות הטקטיות. יכולות חדשות של מערכות סוכן: מודלים מתקדמים מאפשרים לסוכנים לחשוב, לפעול ולת improvisar ללא הפסקה. גודל התקיפה תלוי כעת ברכיבי החישוב של האקר ולא בגודל הצוות. אדם אחד יכול לארגן תקיפה סייבר מורכבת. עליית פגיעות בחברות: עובדים מרבים להפעיל את Claude, Copilot ומודלים סוכנים אחרים ממכשירים אישיים, יוצרי סוכנים ללא בקרת מתאימה. זה פותח ערוץ חדירה חדש למעשים פליליים – «AI צלולי». הערכת מומחים: סקר Dark Reading הראה כי 48 % מהמקצוענים בתחום אבטחת הסייבר רואים ב-AI סוכן כווקטור העיקרי לתקיפות בשנת 2026, אפילו מעל דיפ‑פייקים וסיכונים אחרים. מה לעשות עכשיו
1. הבנת הסיכון – כל עובד צריך להבין את האיום של שימוש ב- AI‑agents ליד מידע חסוי.
2. סביבות מבודדות – עבודה עם AI סוכנים צריכה להתבצע בסביבות בטוחות ומבודדות ללא גישה ישירה למערכות קריטיות.
3. בקרת ביקורת – יישמו מדיניות מחמירות לבקרת יצירת ושימוש ב- AI‑agents בתוך הארגון.
4. הדרכת עובדים – ערכו באופן קבוע סדנאות לשימוש בטוח בטכנולוגיות חדשות.
האיומים הללו נחשבים לאחד מהגדולים ביותר עבור חברות כעת, ולכן הכנה אליהם צריכה להיות עדיפות באסטרטגיית אבטחת המידע.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב