נVIDIA הציגה את Nemotron 3 Super 120B – מודל שפה פתוח עם עלייה פי חמש בקצב עבור סוכני בינה מלאכותית.
מודל חדש של Nvidia – Nemotron 3 Super
Nvidia הודיעה על השקת Nemotron 3 Super, מודל AI פתוח מסוג Mixture‑of‑Experts (MoE).
* 120 מיליארד פרמטרים כלליים, מהם 12 מיליארד פעילים.
* מיועד ל-AI סוכני – מערכות שבהן מספר “סוכנים” מתקשרים זה עם זה ועם העולם החיצון.
ארכיטקטורה
המודל משתמש בגישה היברידית Mamba‑Transformer (שילוב של שכבות Mamba ושאילתות Transformer).
ב־Nemotron 3 Super ניישמה בפעם הראשונה הפרדיגמה LatentMoE, שכבות Multi‑Token Prediction והכשרה מוקדמת לפי פרוטוקול NVFP4. על פי Nvidia, סטאק זה משפר את הדיוק ומאיץ את האינפראנס.
ביצועים
* קצב – עד 5× מהירה יותר מהגרסה הקודמת Nemotron Super.
* דיוק – עד 2× גבוה יותר.
* תמיכה בחלון הקשר של מיליון טוקנים מאפשרת לסוכנים לשמור על מצב מלא של תהליך העבודה, תוך הפחתת סיכון להסטה מיעד.
יישום מעשי
Nemotron 3 Super מתאים היטב למשימות מורכבות בתוך מערכות מרובות סוכן:
| משימה | דוגמה ליישום |
|---|---|
| יצירת ותחזוקת קוד ללא פירוק למסמכים | כתיבה אוטומטית ובדיקה של תוכניות גדולות |
| ניתוח פיננסי | שילוב אלפי עמודים של דוחות בזיכרון המודל |
למידה
המודל אומן על נתונים סינתטיים שנוצרו באמצעות מודלים לוגיים של חשיבה. Nvidia חושפת את המתודולוגיה המלאה:
* מעל 10 טריליון טוקנים לפני ואחרי האימון;
* 15 סביבות לאימוני חיזוק;
* מתכונים להערכה.
חוקרים יכולים להשתמש בפלטפורמת Nvidia NeMo להתאמה אישית או ליצירת גרסאות משלהם של המודל.
פרטים טכניים
* תמיכה ב‑NVFP4 על ארכיטקטורת Nvidia Blackwell.
* הפחתת דרישות זיכרון והאצת יציאה פי ארבעה בהשוואה ל‑FP8 על Nvidia Hopper ללא אובדן דיוק.
זמינות
המודל כבר זמין:
* דרך build.nvidia.com, Hugging Face, OpenRouter ו‑Perplexity.
* שותפים ענן: Google Cloud Vertex AI, Oracle Cloud Infrastructure, CoreWeave, Together AI, Baseten, Cloudflare, DeepInfra, Fireworks AI, Modal.
* כ‑microservice Nvidia NIM, המאפשר לפרוס את המודל מקומית או בענן.
Nemotron 3 Super פותח אפשרויות חדשות ל-AI סוכני, משלב דיוק גבוה, קנה מידה וגמישות התאמה.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב