הפנטגון בחר במודלי OpenAI לשימוש בבינה מלאכותית, והחליף את Anthropic

הפנטגון בחר במודלי OpenAI לשימוש בבינה מלאכותית, והחליף את Anthropic

6 hardware

הסכם בין OpenAI לפנטגון: שלב חדש בסכסוך עם Anthropic

בשישי בערב, סם אלטמן – ראש חברת OpenAI – הודיע על חתימת הסכמה עם משרד הביטחון האמריקאי להתאמת פתרונות OpenAI לצרכי המשרד. זה היה תגובה למחלוקת האחרונה שנוצרה מכיוון שחברת Anthropic סירבה לאפשר לפנטגון להשתמש בפיתוחיה ללא הגבלות אתיות מחמירות.

מה קרה
1. חוזה עם הפנטגון

- OpenAI ומשרד הביטחון הסכימו על תנאי השימוש בטכנולוגיות החברה במערכות סודיות.

- אלטמן הדגיש שבכל שלבי ההתקשרות משרד הביטחון הראה כבוד עמוק לסוגיות ביטחון ושאיפה לשיתוף פעולה.

2. סיבת הסכסוך עם Anthropic

- Anthropic סירבה להסכם בסכום 200 מיליון דולר, מכיוון שלא הסכים להסיר את הגבלות האתיקה שלה.

- כתוצאה מכך המשרד כלל את Anthropic ברשימת "ספקים חשודים", חושש מאיום על ביטחון לאומי. כל מבנים ממשלתיים הורשעו להפסיק להשתמש ב-Chatbot Claude ולמצוא חלופה תוך שישה חודשים.

תנאי עיקריים לשיתוף פעולה עם OpenAI
- איסור מעקב מרחבי: ה-AI לא יימשך למערכות מעקב רחבות על אזרחי ארה"ב.

- הגבלת נשקים אוטונומיים: אין לאפשר שליטה במערכות קרביות אוטונומיות מלאות שיכולות להרוג אנשים ללא התערבות אנושית.

אלטמן הצהיר כי OpenAI יבטיח עמידה בעקרונות אלה מצד משרד הביטחון. בקרת ההשגחה תופעל על ידי צוות מומחים נפרד מ-OpenAI.

קריאה לגישה אחידה
סם אלטמן ביקש מהפנטגון להרחיב תנאי שיתוף פעולה דומים לכל החברות בתחום ה-AI, כדי להסיר סתירות עם משתתפים אחרים בשוק.

תגובה של Anthropic
נציגי Anthropic הביעו תסכול עמוק בהחלטה של הפנטגון להכליל את החברה ברשימת ספקים לא אמינים. החברה השארת לעצמה זכות לערער על ההחלטה בבית משפט.

תגובות (0)

שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.

אין תגובות עדיין. השאירו תגובה ושתפו את דעתכם!

כדי להשאיר תגובה, אנא התחברו.

התחברו כדי להגיב