הפנטגון הסיר את Anthropic מהרשימה של מערכות מורשות, ובחצי שנה מתכנן לעבור אל חלופות כמו Claude.
קצרת סיכום החדשות
* עד היום Anthropic היא החברה היחידה שהמודל שלה *Claude* קיבל אישור של משרד ההגנה האמריקאי (MO) לעבודה עם מערכות ממשלתיות חסויות.
* אך Anthropic דחה לתת ל-Pentagon זכות שימוש בלתי מוגבל בטכנולוגיה שלה. בתגובה MO הכנסה את החברה לרשימה השחורה והפסיקה להשתמש בשירותיה.
1. מה גרם למחלוקת
הצד של Anthropic: לא יאפשרו להשתמש ב-Claude לצפייה באזרחים אמריקאים ובמערכות נשק אוטונומיות מלאות ללא מעורבות אדם. Pentagon, לאחר השקעה של 200 מיליון דולר בחוזה, סבור שהוא יכול לנהל את התוכנה וליישם אותה בכל מטרה חוקית. ניסיונות "להשפיע" על Anthropic מצד MO לא הובילו לתוצאות. עד ערב יום שישי החברה נכנסה לרשימת הספקים המוערכים כמשאבים לסיכון לביטחון הלאומי – בדרך כלל חברות עם קשרים חזקים ל-opponents הגיאופוליטיים של ארה"ב.
2. תגובה וצעדים הבאים
* Anthropic מוכנה לערער את ההחלטה בבית משפט, אך עדיין לא הגשה תביעה.
* Pentagon דורש מהקבלנים לוותר על Claude תוך שישה חודשים ולעבור למוצרים של מפתחים אחרים.
* הנשיא האמריקאי דונלד טראמפ (דרך Truth Social) דרש להפסיק מיד את השימוש בכל מוצרי Anthropic בכל המוסדות הפדרליים.
3. אפשרויות חלופיות
* OpenAI – Pentagon שוקל מעבר למודלים של החברה, למרות שהן נושאות מגבלות דומות בשימוש ב-Intelligence ו-War.
* Palantir גם תצטרך לחפש אלטרנטיבה.
* סטארט‑אפ xAI של אילון מאסק חתם חוזה עם MO לשימוש ב-Grok במערכות חסויות. זה עשוי להוות רק החלפה חלקית ל-Claude, מכיוון שאין עדיין מודל שווה לגמרי.
4. תגובת הציבור
* Google ו-OpenAI התייצבו לצד Anthropic והקימו פטישיות פתוחות.
* קבוצות ציבוריות אחרות תומכות גם הן בחברה.
כך המחלוקת בין Anthropic למשרד ההגנה האמריקאי הפכה לביטול מלא של השימוש בטכנולוגיית ה‑AI שלהם, מה שהכריע את הממשלה לחפש חלופות והביא לדיון ציבורי פעיל.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב