צ'אטג'יפיטי קיבל “הסרה” מכיוון שאופנאי משתפים פעולה עם הפנטגון.
שאלה על שיתוף פעולה עם משרד ההגנה
מאוכזבים מהשלכות האפשריות של השותפות בין OpenAI למשרד ההגנה האמריקאי (MoD), חלק מהקהילה האמריקאית ייסד תנועה בשם «ביטול ChatGPT». המטרה של היוזמה היא לתמוך ב-Anthropic, החברה שנכנסה לרשימת “החסימה” של הפנטגון לאחר שהסרדה לא לאפשר שימוש במודלים שלה למטרות מסוימות.
למה Anthropic נכנסה לרשימה
בקרב MoD היו שני «קו אדום» שאי-מפתח ה-AI לא רצה לעבור:
1. אסור לתת למודלים זכות אוטונומית לקבל החלטות על שימוש בנשק.
2. המודלים אינם יכולים לשמש לניטור של אזרחי אמריקה.
כאשר Anthropic סירבה, החוזה עם MoD בוטל והחברה הוספה לרשימת “החסימה”, מה שממנע מכל קבלן הגנה לעבוד איתה.
מעבר ל-OpenAI
לאחר שהוציאו את Anthropic מתוכניות ההגנה, MoD כללה את OpenAI. ראש החברה סם אלטמן אמר כי המודלים שלהם לא ייעשו למעקב נרחב. אך נציגי הממשלה דחו זאת: הם הדגישו שמדובר בשימוש ב-AI רק במסגרת “סценарיות חוקיות”, וחוק הפטריאוט של 2001 מאפשר איסוף מטה-נתונים ברשתות תקשורת, גם אם חלק מהתנאים שלו הוגבלו.
תגובה ציבורית וארגוני AI אחרים
האירוע גרם לתגובה חריפה ושלילית בקהילות מקוונות. אנשים שהכריזו על הפסקת השימוש ב-ChatGPT התחילו לקבל משוב חיובי. חשוב לציין כי סירוב מהקו האדום אינו חובה עבור כל יצרני AI גדולים:
- גוגל קידמה איסור דומה בחוקיה הפנימיים, אך ביטלה אותו.
- מיקרוסופט מאפשרת שימוש ב-AI בנשק בתנאי שהחץ נופל על ידי אדם.
- אמזון מצמצם את העקרון הכללי של “שימוש אחראי” ללא פרטים ספציפיים.
עמדה של OpenAI והמסגרת המשפטית
סם אלטמן חזר על הבטחת שמירה על הקו האדום בנוגע לנשק אוטונומי ומעקב נרחב, אך לא פרט את המנגנונים. הוא התייחס לחוקי ארה"ב הקיימים המאפשרים איסוף נתוני אנשים ללא אזרחות אמריקאית למטרות ביטחון.
לציבור הרחב הציגו OpenAI הפנטגון פרשנות גמישה של מה נחשב חוקי, בעוד Anthropic שמרה על בקרת מחמירה על השימוש בטכנולוגיות שלה. כתוצאה מכך, מוצר Claude AI של Anthropic הפך לראשי בין האפליקציות הרשמיות לאנדרואיד ול-iOS, וקיבל גם גרסה ל-Windows 11.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב