אישית אמריקאית ראתה בהתנהגות הפנטגון רצון להעניש את אנתרופיק על עמדה שלהם
הפנטגון כלל את Anthropic ברשימת הספקים "מסוכנים" של בינה מלאכותית
בפתרון האחרון של משרד ההגנה האמריקאי (DoD) החברה Anthropic, מפתח מערכות בינה מלאכותית, נכנסה לרשימה של ארגונים המוותרים על ביטחון לאומי במחרוזת הספקה. לפי החברה, זה היה ניסיון להעניש אותה בגלל הצהרות ציבוריות על סיכוני השימוש בבינה מלאכותית בצבא.
מה קרה בדיוק
1. הפנטגון העניק את הסטטוס "איום"
- סטטוס בדרך כלל מיועד לחברות שהטכנולוגיה שלהן עשויה להפוך למטרה של חדירה או sabotage מצד יריב.
- על Anthropic ניתנה סטטוס זה בסוף שנת 2023.
2. החברה פנתה לבית המשפט
- בבית משפט הפדרלי בקליפורניה, Anthropic הגישה תביעה בטענה ש-Pit Heegset (מומחה ראשי לספקים) חרג ממכונותיו.
- מבקשת צו זמני המונע את יישום הסנקציות עד סיום הליך המשפט.
3. החלטת השופט המקומי
- השופט ריטה לינ הבטיחה להוציא פסק דין כתוב תוך מספר ימים אחרי הפגישה האחרונה.
למה Anthropic לא הסכימה
- החברה סירבה לאפשר לפנטגון להשתמש במודלים שלה לצפייה מרחבית של אזרחי ארה"ב וליצור נשק אוטונומי שבו הבינה המלאכותית מקבלת החלטות על השמדת אדם.
- כתוצאה מהסטטוס החדש, Anthropic מעריכה פגיעה אפשרית במספר מיליארד דולרים (איבוד עסקאות והדעת הציבור).
- לפי דבריהם, מדיניות כזו מעולם לא הוחלטה לחברות אמריקאיות; הבסיס היה חוק נדיר על רכישות ממשלתיות שמטרתו להגן על מערכות צבאיות מפני sabotage זר.
טיעונים משפטיים
הצד של Anthropic טוען שהפעולות של הפנטגון מפרות את חופש הביטוי והקונסטיטוציה האמריקאית; החברה לא קיבלה הזדמנות לערער על הסטטוס. הפנטגון צריך למנוע סיכון "מתג כפתור החירום" או התערבות בבינה מלאכותית שעשויה להיות קריטית לפעולות צבאיות.
פעולות נוספות
- Anthropic הגישה תביעה נוספת בוושינגטון בנוגע להחלטת הפנטגון שעלולה לגרום להפסד של חלק מההזדמנויות בחוזים ממשלתיים.
לכן, הסכסוך התפתח סביב האופן שבו הממשלה מעריכה את איומי הבינה המלאכותית וכמה רחוק ניתן להגיע לסנקציות אם חברות מביעות חששות לגבי השימוש שלהן בתחום הצבאי.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב