Trend Olan Konular
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mistral, hibrit akıl yürütme ve görüntü girdisine sahip açık ağırlıklar modeli Mistral Small 4'ü piyasaya sürdü ve Yapay Analiz Zeka Endeksi'nde 27. puan aldı
@MistralAI's Small 4, her token için 6.5B aktif parametreye sahip 119B uzman karışımı bir modeldir ve hem akıl yürütme hem de akıl yürütme modlarını destekler.
Akıl yürütme modunda, Mistral Small 4, Yapay Analiz Zeka Endeksi'nde 27 puan alıyor; bu, Small 3.2'den (15) 12 puanlık bir artış ve şimdi Mistral'ın piyasaya sürdüğü en zeki modeller arasında yer alıyor; Mistral Large 3'ü (23) geride bırakıyor ve özel Magistral Medium 1.2 (27) ile eşleşiyor. Ancak, benzer toplam parametre sayısına sahip açık ağırlıklı eşlerden geride kalıyor; örneğin gpt-oss-120B (yüksek, 33), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 36) ve Qwen3.5 122B A10B (Reasoning, 42).
Önemli çıkarımlar:
➤ Tek bir modelde akıl yürütme ve akıl yürütmeyen modlar: Mistral Small 4, Mistral'ın daha önce Magistral modelleriyle çıkardığı ayrı akıl yürütme varyantları yerine, akıl yürütme ve akıl yürütme modlarıyla yapılandırılabilir hibrit akıl yürütmeyi destekler. Akıl yürütme modunda, model Yapay Analiz Zeka Endeksi'nde 27 puan alır. Akıl yürütme modunda ise model 19 puan alır; bu, selefi Mistral Small 3.2 (15) puanından 4 puan daha iyidir
➤ Benzer büyüklükteki rakiplere göre daha etkin token: ~52M çıkış tokenı ile Mistral Small 4 (Akıl yürütme), gpt-oss-120B (yüksek, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Akıl yürütme, ~110M) ve Qwen3.5 122B A10B (Akıl yürütme, ~91M) gibi akıl yürütme modellerine kıyasla Yapay Analiz Zeka İndeksi çalıştırmak için daha az token kullanıyor. Akıl yürütme modunda, model ~4M çıkış tokenı kullanır
➤ Görüntü girişi için yerel destek: Mistral Small 4, hem görüntü girişini hem de metni kabul eden çok modlu bir modeldir. Multimodal değerlendirmemizde, MMMU-Pro, Mistral Small 4 (Akıl yürütme) %57 puan aldı; Mistral Large 3'ün (%56) önünde ancak Qwen3.5 122B A10B'nin (Akıl yürütme) %75'inin gerisindeydi. Ne gpt-oss-120B ne de NVIDIA Nemotron 3 Super 120B A12B görüntü girişini desteklemiyor. Tüm modeller yalnızca metin çıkışını destekler
➤ Gerçek dünya ajanik görevlerinde iyileştirme: Mistral Small 4, OpenAI'nin GDPval veri setine dayanan değerlendirmemiz, 44 meslek ve 9 büyük sektörde gerçek dünya görevlerinin modellerini test eden ve modellerin ajanik döngüde sunulan modellerle üretildiği GDPval-AA'da 871 Elo puanı aldı. Bu, Small 3.2'nin (339) Elo'sunun iki katından fazla ve Mistral Large 3'ün (880) yakınıdır, ancak gpt-oss-120B (yüksek, 962), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 1021) ve Qwen3.5 122B A10B (Reasoning, 1130) gerisinde
➤ Benzer boyuttaki akran modellere göre daha düşük halüsinasyon oranı: Mistral Small, bilgi güvenilirliği ve halüsinasyon değerlendirmemizde AA-Omniscience'da 4 puan -30, puanlar -100 ile 100 arasında değişiyor (yüksek olur daha iyi) ve negatif puan doğru cevaplardan daha yanlış olduğunu gösteriyor. Mistral Small 4, gpt-oss-120B (yüksek, -50), Qwen3.5 122B A10B (Akıl yürütme, -40) ve NVIDIA Nemotron 3 Super 120B A12B (Akıl yürütme, -42) önünde puan aldı
Ana model detayları:
➤ Bağlam penceresi: 256K token (Small 3.2'deki 128K oranından)
➤ Fiyatlandırma: 1 milyon giriş/çıkış tokenı başına $0.15/$0.6
➤ Erişilebilirlik: Sadece Mistral birinci taraf API. Yerel FP8 hassasiyetinde, Mistral Small 4'ün 119B parametreleri ağırlıkları kendi kendine barındırmak için ~119GB gerektirir (tek bir NVIDIA H100'deki 80GB HBM3 bellekten fazla)
➤ Modalite: Sadece metin çıkışıyla görüntü ve metin girişi
➤ Lisanslama: Apache 2.0 lisansı

Zeka ve Toplam Parametreler arasında, Mistral Small 4 (Reasoning, 27), benzer boyutlara sahip rakiplerine göre daha az avantajlı bir takas sunar; örneğin gpt-oss-120B (yüksek, 33), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 36) ve Qwen3.5 122B A10B (Reasoning, 42)

~52M çıkış tokenı ile Mistral Small 4 (Akıl yürütme), gpt-oss-120B (yüksek, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Akıl yürütme, ~110M) ve Qwen3.5 122B A10B (Akıl yürütme, ~91M) gibi eş modellere kıyasla Yapay Analiz Zeka İndeksini çalıştırmak için daha az token kullanır

Sonuçların tam dağılımı:

Tam sonuçlar Mistral Small 4 model sayfasında Yapay Analiz sayfasında mevcuttur:
8,24K
En İyiler
Sıralama
Takip Listesi
