Populaire onderwerpen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mistral heeft Mistral Small 4 uitgebracht, een model met open gewichten met hybride redenering en beeldinvoer, met een score van 27 op de Artificial Analysis Intelligence Index
@MistralAI's Small 4 is een 119B mengsel-van-experts model met 6,5B actieve parameters per token, dat zowel redenerings- als niet-redeneringsmodi ondersteunt.
In de redeneringsmodus scoort Mistral Small 4 27 op de Artificial Analysis Intelligence Index, een verbetering van 12 punten ten opzichte van Small 3.2 (15) en nu een van de intelligentste modellen die Mistral heeft uitgebracht, die Mistral Large 3 (23) overtreft en gelijk scoort met het propriëtaire Magistral Medium 1.2 (27). Het blijft echter achter bij open gewichten gelijken met vergelijkbare totale parameter aantallen zoals gpt-oss-120B (hoog, 33), NVIDIA Nemotron 3 Super 120B A12B (Redenering, 36) en Qwen3.5 122B A10B (Redenering, 42).
Belangrijkste punten:
➤ Redenerings- en niet-redeneringsmodi in één model: Mistral Small 4 ondersteunt configureerbare hybride redenering met redenerings- en niet-redeneringsmodi, in plaats van de aparte redeneringsvarianten die Mistral eerder heeft uitgebracht met hun Magistral-modellen. In de redeneringsmodus scoort het model 27 op de Artificial Analysis Intelligence Index. In de niet-redeneringsmodus scoort het model 19, een verbetering van 4 punten ten opzichte van zijn voorganger Mistral Small 3.2 (15)
➤ Efficiënter in tokens dan gelijken van vergelijkbare grootte: Bij ~52M output tokens gebruikt Mistral Small 4 (Redenering) minder tokens om de Artificial Analysis Intelligence Index te draaien in vergelijking met redeneringsmodellen zoals gpt-oss-120B (hoog, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Redenering, ~110M) en Qwen3.5 122B A10B (Redenering, ~91M). In de niet-redeneringsmodus gebruikt het model ~4M output tokens
➤ Ingebouwde ondersteuning voor beeldinvoer: Mistral Small 4 is een multimodaal model, dat beeldinvoer accepteert naast tekst. Bij onze multimodale evaluatie, MMMU-Pro, scoort Mistral Small 4 (Redenering) 57%, voor Mistral Large 3 (56%) maar achter Qwen3.5 122B A10B (Redenering, 75%). Geen van de gpt-oss-120B of NVIDIA Nemotron 3 Super 120B A12B ondersteunt beeldinvoer. Alle modellen ondersteunen alleen tekstoutput
➤ Verbetering in agentische taken in de echte wereld: Mistral Small 4 scoort een Elo van 871 op GDPval-AA, onze evaluatie gebaseerd op OpenAI's GDPval dataset die modellen test op taken in de echte wereld in 44 beroepen en 9 belangrijke industrieën, waarbij modellen leveringen produceren zoals documenten, spreadsheets en diagrammen in een agentische cyclus. Dit is meer dan het dubbele van de Elo van Small 3.2 (339) en dicht bij Mistral Large 3 (880), maar achter gpt-oss-120B (hoog, 962), NVIDIA Nemotron 3 Super 120B A12B (Redenering, 1021) en Qwen3.5 122B A10B (Redenering, 1130)
➤ Lagere hallucinatiegraad dan gelijke modellen van vergelijkbare grootte: Mistral Small 4 scoort -30 op AA-Omniscience, onze evaluatie van kennisbetrouwbaarheid en hallucinatie, waar scores variëren van -100 tot 100 (hoger is beter) en een negatieve score aangeeft dat er meer onjuiste dan correcte antwoorden zijn. Mistral Small 4 scoort beter dan gpt-oss-120B (hoog, -50), Qwen3.5 122B A10B (Redenering, -40) en NVIDIA Nemotron 3 Super 120B A12B (Redenering, -42)
Belangrijke modelgegevens:
➤ Contextvenster: 256K tokens (verhoogd van 128K op Small 3.2)
➤ Prijsstelling: $0.15/$0.6 per 1M input/output tokens
➤ Beschikbaarheid: Alleen Mistral first-party API. Bij native FP8 precisie vereist Mistral Small 4's 119B parameters ~119GB om de gewichten zelf te hosten (meer dan de 80GB HBM3-geheugen op een enkele NVIDIA H100)
➤ Modaliteit: Beeld- en tekstinvoer met alleen tekstoutput
➤ Licentie: Apache 2.0-licentie

Wat betreft intelligentie versus totale parameters, biedt Mistral Small 4 (Redeneren, 27) een minder gunstige afweging dan soortgenoten van vergelijkbare grootte zoals gpt-oss-120B (hoog, 33), NVIDIA Nemotron 3 Super 120B A12B (Redeneren, 36) en Qwen3.5 122B A10B (Redeneren, 42)

Bij ~52M outputtokens gebruikt Mistral Small 4 (Redeneren) minder tokens om de Artificial Analysis Intelligence Index uit te voeren in vergelijking met peer-modellen zoals gpt-oss-120B (hoog, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Redeneren, ~110M) en Qwen3.5 122B A10B (Redeneren, ~91M)

Volledige uitsplitsing van resultaten:

Volledige resultaten zijn beschikbaar op de pagina van het Mistral Small 4 model op Artificial Analysis:
8,41K
Boven
Positie
Favorieten
