אמזון מתכננת לפרוס מודלי בינה מלאכותית על שבבים עצומים של Cerebras.
אמזון ו-Cerebras משלבות כוחות כדי加速 מודלים גדולים של שפה
Amazon Web Services (AWS) הודיעה כי באמצע 2026 תתחיל להשתמש ביצריות של Cerebras Systems Inc. יחד עם מעבדות Trainium שלהן. לפי מידע פנימי, זה יאפשר ליצור "תנאים אופטימליים" להפעלת ותחזוקת מודלים גדולים של שפה (LLM). פרטי הצד הפיננסי העסק עדיין לא נחשפים.
מה בדיוק יתרחש
* מעבדות Trainium 3 של AWS ישלחו את הבקשות של המשתמשים – "להבין" את משמעותן.
* לאחר מכן, מעבדות Cerebras Wafer‑Scale Engine (WSE) יטפלו ביצירת התשובה.
כך שני משאבים מיוחדים עובדים יחד ומספקים חישובים של inference עבור LLM.
> “הקשר בין רכיבים שונים בדרך כלל מאיטם את התהליך,” – מציין Nafea Bshara, סגן נשיא AWS. – “אבל אנו שואפים לקבל יתרון באמצעות מעבדות שמטפלות במהירות גבוהה יותר ב‑inference.”
היתרון ניכר במיוחד במקומות שבהם מהירות תגובה חשובה: לדוגמה, כתיבת קוד שלב אחר שלב או יצירת טקסט בזמן אמת.
למה זה חשוב
* אמזון היא אחת הספקים הגדולים ביותר בענן ושימושית פעילה ב‑GPU מ-Nvidia. כיום החברה מפתחת מעבדות AI משלה כדי לשפר את יעילות מרכזי הנתונים ולהציע ללקוחות שירותים ייחודיים.
* עבור Cerebras, שיתוף פעולה עם AWS הוא החוזה הגדול הראשון של ענק המרכזים, שמעלה את המודעות למותג לפני השוק הפוטנציאלי. זה גם חשוב לפני IPO המתוכנן שלהם.
סיכום
AWS ו-Cerebras יוצרים יחד תשתית חדשה למודלים גדולים של שפה: מעבדות Trainium 3 מטפלות בבקשות, וה-WSE מייצרות תשובות. למרות ששירות נפרד רק ב‑Trainium עשוי להיות זול יותר, הפתרון המשלב מבטיח מהירות משמעותית, כאשר "זמן הוא כסף". זה מחזק את מעמד אמזון כלקוח גדול של Nvidia ומקדם במקביל את מעבדות AI שלה לעומק יעילות גבוהה יותר.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב