ميتا للتو اسقطت MobileLLM-R1 على المنصة



نموذج استدلال حافة يحتوي على أقل من 1 مليار معلمة

2×–5× تعزيز الأداء…
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 7
  • إعادة النشر
  • مشاركة
تعليق
0/400
DefiSecurityGuardvip
· منذ 26 د
همم... معلمات أصغر ولكن زيادة 5x؟ نمط وعاء العسل الأمني الكلاسيكي. DYOR أيها الناس.
شاهد النسخة الأصليةرد0
ForkItAllvip
· منذ 3 س
حقًا يجب أن نفكر في كل شيء.
شاهد النسخة الأصليةرد0
OPsychologyvip
· منذ 19 س
هذه المعلمات جيدة بما فيه الكفاية
شاهد النسخة الأصليةرد0
ValidatorVikingvip
· منذ 19 س
يبدو أن ميتا تنضم إلى سباق تحسين الحافة... 1 مليار معلمات جاهزة للمعركة ولكن دعنا نرى إحصائيات وقت التشغيل.
شاهد النسخة الأصليةرد0
MEVHunterNoLossvip
· منذ 19 س
هل هذه المعلمة صغيرة بما يكفي لتحملها؟
شاهد النسخة الأصليةرد0
PerennialLeekvip
· منذ 20 س
لقد تأخرت كثيرًا!
شاهد النسخة الأصليةرد0
SnapshotBotvip
· منذ 20 س
أليس مجرد نسخة مصغرة؟
شاهد النسخة الأصليةرد0
  • تثبيت