אנתרופיק תוקפה שלוש חברות סיניות על “דיסטילציה” של מודלי ה‑AI שלהן

אנתרופיק תוקפה שלוש חברות סיניות על “דיסטילציה” של מודלי ה‑AI שלהן

8 hardware

חברות סיניות מצוינות ב«דיסטילציה» של מודלים Claude

*OpenAI כבר בחודש הזה אזהרה את החקוקות כיצד סטארט‑אפ סיני DeepSeek משתמש בשיטת הדיסטילציה כדי加速 את פיתוח מודלי ה‑AI שלה. כעת נוסף לרשימת החשודים עוד שני מתחרים – MiniMax Group ו-Moonshot.*

מה אומרים נציגי Anthropic
לפי Bloomberg, Anthropic מצביע על שלוש חברות סיניות בגין הפרת כללים בשימוש במודלי משפחת Claude. לפי הערכות החברה:

- מעל 16 מיליון מפגשי החלפת נתונים בין החברות הללו למודלים Claude.

- האינטראקציה התבצעה דרך אלפי חשבונות מזויפים ושרתי פרוקסי, מה שהפחית את הסיכון לגילוי.

Anthropic מדגישה ששיטת הדיסטילציה מאפשרת «לשבור» מודלים מאומנים במהירות: המפתחים משתמשים בנתונים שנאספו ממערכות של אחרים כדי加速 את התקדמותם האישית.

למה זה חשוב
- 加速 תחרות. חברות סיניות מיישמות באופן פעיל מודלי AI זולים יותר לעבודה עם טקסט, וידאו ותמונות, תוך עקיפה של פתרונות מערביים יקרים.

- סיכון למונטיזציה. חברות התלויות באקו‑סיסטם סגור מתמודדות עם קשיים בהגנה על נכסי רוחניות שלהן.

Anthropic מציינת שהפעולות של המפתחים הסינים נעשות יותר מורכבות, ו«חלון הפעולה» מתקצר. האיום חורג מחברה אחת ואזור אחד.

דוגמאות להפרות
חברת הערכת כמות החלפות DeepSeek~150 000 MiniMax>13 מיליון
*DeepSeek הציגה כבר לפני שנה את המודל R1, שהשווה ביצועים דומים אך היה הרבה יותר זול מהמתחרים מערביים. מאז שוק סיני מלא בפתרונות AI נגישים.*

איך Anthropic מגיבה
- שיטות חדשות להגנה מפני דיסטילציה.

- נכונות לשתף אותן עם שותפים והתעשייה בכללותה: «אף חברה לא תוכל להתמודד עם זה לבד. יש להשיג הגנה יציבה באמצעות מאמצים משותפים של חברות AI, ספקי ענן ורגולטורים».

כך Anthropic מעלה את השאלה על הצורך באמצעים מתואמים להגנת קניין רוחני בתעשיית הבינה המלאכותית המתפתחת במהירות.

תגובות (0)

שתפו את דעתכם — אנא היו מנומסים והישארו בנושא.

אין תגובות עדיין. השאירו תגובה ושתפו את דעתכם!

כדי להשאיר תגובה, אנא התחברו.

התחברו כדי להגיב