אוללה כעת תומכת בהאצת חומרה על שבבי אפל M5, אם מותקנים 32 ג'י ברם
אולמה — אפליקציה להפעלת מודלי בינה מלאכותית מקומית מהירה יותר כעת במחשבים עם שבב M5 של Apple
הגרסה החדשה אולמה 0.19 זמינה ל-Windows, macOS ו-Linux
האצת חומרה: רק עבור שבבי Apple M5 (M5 Pro, M5 Max)
דרישות זיכרון: מינימום 32 GB RAM מאוחד
מה השתנה
אולמה מאפשרת למשתמשים להוריד ולהריץ מודלי בינה מלאכותית ישירות במחשב שלהם. בניגוד לשירותי ענן כגון ChatGPT, אין צורך בחיבור קבוע לאינטרנט.
הגרסה 0.19 הוסיפה תמיכה ב-Apple MLX – מסגרת למכונה למידה, וכן בארכיטקטורת זיכרון מאוחד (Unified Memory Architecture). זה מהיר את ביצוע המודל על שבבים חדשים של Apple M5, מקצר את זמן ההמתנה לתו הראשון ומעלה את קצב הייצור הכולל.
איך זה עובד
* מואצים עצביים: אולמה מפעילה בלוקים עצביים ייחודיים שבתוך השבבים M5, מה שמקדם את יצירת התווים.
* מודלים: עובדים מהר יותר הן סוכני בינה מלאכותית אישיים (למשל OpenClaw) והן מערכות גדולות – OpenCode, Anthropic Claude Code, OpenAI Codex ועוד.
הגבלות
1. האצה זמינה רק על שבבי Apple M5 (M5 Pro/Max).
2. במחשב חייב להיות לפחות 32 GB זיכרון מאוחד; אחרת לא תתרחש האצה.
לכן, אם יש לך Mac עם שבב M5 וכמות מספקת של RAM, תוכל לשפר משמעותית את ביצועי אפליקציית הבינה המלאכותית המקומית אולמה.
תגובות (0)
שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.
התחברו כדי להגיב