المواضيع الرائجة
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
أصدرت ميسترال نموذج ميسترال سمول 4، وهو نموذج أوزان مفتوحة مع استدلالات هجينة وإدخال صور، محققة 27 في مؤشر الذكاء التحليلي الصناعي
نموذج Small 4 الخاص ب @MistralAI هو نموذج مزيج من الخبراء بحجم 119B مع 6.5 مليار معلم نشط لكل رمز، يدعم أوضاع التفكير وعدم التفكير في كل من المنطق.
في وضع المنطق، حصل ميسترال سمول 4 على تقييم 27 في مؤشر الذكاء التحليلي الاصطناعي، وهو تحسن بمقدار 12 نقطة عن سمال 3.2 (15)، وهو الآن من أكثر النماذج ذكاء التي أصدرتها ميسترال، متجاوزا ميسترال لارج 3 (23) ومطابقا لمؤشر ماجسترال ميديوم 1.2 (27). ومع ذلك، يتخلف عن نظيراتها ذات الأوزان المفتوحة ذات عدد معاملات إجمالية مماثلة مثل gpt-oss-120B (عالي، 33)، NVIDIA Nemotron 3 Super 120B A12B (Reasoning، 36)، وQwen3.5 122B A10B (Reasoning، 42).
أهم النقاط المستخلصة:
➤ أوضاع التفكير وعدم التفكير في نموذج واحد: يدعم ميسترال سمول 4 التفكير الهجين القابل للتكوين مع أوضاع التفكير وعدم الاستدلال، بدلا من النسخ المنفصلة التي أصدرتها ميسترال سابقا مع نماذج ماجسترال. في وضع التفكير، يحصل النموذج على درجة 27 في مؤشر الذكاء التحليلي الاصطناعي. في وضع عدم الاستدلال، يحصل الطراز على درجة 19، وهو تحسن بمقدار 4 نقاط عن سلفه ميسترال سمول 3.2 (15)
➤ أكثر كفاءة في الرموز من النظائر ذات الحجم المماثل: عند ~52 مليون رموز إخراج، يستخدم Mistral Small 4 (التفكير) عددا أقل من الرموز لتشغيل مؤشر التحليل الاصطناعي للذكاء مقارنة بنماذج الاستدلال مثل gpt-oss-120B (عالي، ~78M)، NVIDIA Nemotron 3 Super 120B A12B (التفكير، ~110M)، وQwen3.5 122B A10B (التفكير، ~91M). في وضع عدم الاستدلال، يستخدم النموذج رموز إخراج ~4M
➤ الدعم الأصلي لإدخال الصور: ميسترال سمول 4 هو نموذج متعدد الوسائط، يقبل إدخال الصور بالإضافة إلى النصوص. في تقييمنا متعدد الوسائط، MMMU-Pro، حصل ميسترال سمول 4 (المنطق) على 57٪، متقدما على ميسترال لارج 3 (56٪) لكنه خلف Qwen3.5 122B A10B (المنطق، 75٪). لا تدعم GPT-OSS-120B ولا NVIDIA Nemotron 3 Super 120B A12B إدخال الصورة. جميع النماذج تدعم إخراج النص فقط
➤ تحسين المهام الوكائلية الواقعية: حصل Mistral Small 4 على تقييم Elo 871 في GDPval-AA، تقييمنا المستند إلى مجموعة بيانات GDPval الخاصة ب OpenAI التي تختبر نماذج المهام الواقعية عبر 44 مهنة و9 صناعات رئيسية، مع نماذج تنتج مخرجات مثل المستندات والجداول والرسوم البيانية ضمن حلقة وكلاء. هذا أكثر من ضعف تصنيف الفئة المتوسطة 3.2 (339) وقريب من ميسترال لارج 3 (880)، لكنه خلف gpt-oss-120B (العالي، 962)، NVIDIA Nemotron 3 Super 120B A12B (Reasoning، 1021)، وQwen3.5 122B A10B (Reasoning، 1130)
➤ معدل هلوسة أقل من نماذج الأقران ذات الحجم المماثل: ميسترال سمول 4 درجات -30 في AA-العلم الشامل، تقييمنا لموثوقية المعرفة والهلوسة، حيث تتراوح الدرجات بين -100 و100 (الأعلى أفضل) والدرجة السلبية تشير إلى أن الإجابات غير صحيحة أكثر من الصحيحة. متقدمة على GPT-OSS-120B (الأعلى، -50)، Qwen3.5 122B A10B (Reasoning، -40)، وNVIDIA Nemotron 3 Super 120B A12B (Reasoning، -42)
تفاصيل النموذج الرئيسية:
➤ نافذة السياق: 256 ألف رمز (زيادة من 128 ألف في Small 3.2)
➤ التسعير: 0.15 دولار/0.6 دولار لكل مليون رمز إدخال/إخراج
➤ التوفر: واجهة برمجة تطبيقات Mistral من الطرف الأول فقط. بدقة FP8 الأصلية، تتطلب معلمات 119B في Mistral Small 4 ~119GB لاستضافة الأوزان ذاتيا (أكثر من 80GB من ذاكرة HBM3 على جهاز NVIDIA H100 واحد)
➤ النوع: إدخال الصور والنص مع إخراج نص فقط
➤ الترخيص: رخصة Apache 2.0

فيما يخص الذكاء مقابل المعلمات الكلية، يقدم ميسترال سمول 4 (المنطق، 27) مقايضة أقل ملاءمة مقارنة بالنظائر ذات الأحجام المماثلة مثل gpt-oss-120B (عالي، 33)، NVIDIA Nemotron 3 Super 120B A12B (المنطق، 36)، وQwen3.5 122B A10B (التفكير، 42)

عند ~52M رموز إخراج، يستخدم Mistral Small 4 (المنطق) عددا أقل من الرموز لتشغيل مؤشر الذكاء التحليلي الاصطناعي مقارنة بنماذج نظيرة مثل gpt-oss-120B (عالي، ~78M)، NVIDIA Nemotron 3 Super 120B A12B (Reasoning، ~110M)، وQwen3.5 122B A10B (التفكير، ~91M)

تفصيل كامل للنتائج:

النتائج الكاملة متاحة في صفحة نموذج Mistral Small 4 حول التحليل الاصطناعي:
8.24K
الأفضل
المُتصدِّرة
التطبيقات المفضلة
