قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 8
أعجبني
8
7
إعادة النشر
مشاركة
تعليق
0/400
DefiSecurityGuard
· منذ 26 د
همم... معلمات أصغر ولكن زيادة 5x؟ نمط وعاء العسل الأمني الكلاسيكي. DYOR أيها الناس.
شاهد النسخة الأصليةرد0
ForkItAll
· منذ 3 س
حقًا يجب أن نفكر في كل شيء.
شاهد النسخة الأصليةرد0
OPsychology
· منذ 19 س
هذه المعلمات جيدة بما فيه الكفاية
شاهد النسخة الأصليةرد0
ValidatorViking
· منذ 19 س
يبدو أن ميتا تنضم إلى سباق تحسين الحافة... 1 مليار معلمات جاهزة للمعركة ولكن دعنا نرى إحصائيات وقت التشغيل.
ميتا للتو اسقطت MobileLLM-R1 على المنصة
نموذج استدلال حافة يحتوي على أقل من 1 مليار معلمة
2×–5× تعزيز الأداء…