Subiecte populare
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mistral a lansat Mistral Small 4, un model cu greutăți deschise cu raționament hibrid și input de imagine, obținând un scor 27 la Artificial Analysis Intelligence Index
Small 4 de la @MistralAI este un model 119B de experți cu 6,5 miliarde parametri activi per token, suportând atât moduri de raționament, cât și non-raționament.
În modul raționament, Mistral Small 4 obține un scor de 27 la Artificial Analysis Intelligence Index, o îmbunătățire cu 12 puncte față de Small 3,2 (15) și acum printre cele mai inteligente modele lansate de Mistral, depășind Mistral Large 3 (23) și egalând proprietarul Magistral Medium 1,2 (27). Totuși, este în urma egalilor cu greutăți deschise cu numere totale similare de parametri, cum ar fi gpt-oss-120B (mare, 33), NVIDIA Nemotron 3 Super 120B A12B (Raționament, 36) și Qwen3.5 122B A10B (Raționament, 42).
Concluzii cheie:
➤ Moduri de raționament și non-raționament într-un singur model: Mistral Small 4 suportă raționament hibrid configurabil cu moduri de raționament și non-raționament, spre deosebire de variantele separate de raționament lansate anterior de Mistral cu modelele lor Magistral. În modul de raționament, modelul obține un scor de 27 în Indicele Inteligenței Analizei Artificiale. În modul non-raționament, modelul obține 19, o îmbunătățire de 4 puncte față de predecesorul său Mistral Small 3,2 (15)
➤ Mai eficient în tokenuri decât peers de dimensiuni similare: La ~52M token-uri de ieșire, Mistral Small 4 (Raționament) folosește mai puține token-uri pentru a rula Artificial Analysis Intelligence Index comparativ cu modele de raționament precum gpt-oss-120B (high, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raționament, ~110M) și Qwen3.5 122B A10B (Raționament, ~91M). În modul non-raționament, modelul folosește ~4M jetoane de ieșire
➤ Suport nativ pentru intrarea imaginilor: Mistral Small 4 este un model multimodal, care acceptă atât intrarea imaginii, cât și textul. În evaluarea noastră multimodală, MMMU-Pro, Mistral Small 4 (Raționament) scorează 57%, înaintea lui Mistral Large 3 (56%), dar în spatele Qwen3.5 122B A10B (Raționament, 75%). Nici gpt-oss-120B, nici NVIDIA Nemotron 3 Super 120B A12B nu suportă intrare de imagine. Toate modelele suportă doar ieșire text
➤ Îmbunătățirea sarcinilor agențice din lumea reală: Mistral Small 4 obține un Elo de 871 la GDPval-AA, evaluarea noastră bazată pe setul de date GDPval al OpenAI, care testează modele pentru sarcini reale din 44 de ocupații și 9 industrii majore, modelele producând livrabile precum documente, foi de calcul și diagrame într-un ciclu agentic. Aceasta este mai mult decât dublul Elo-ului Small 3.2 (339) și aproape de Mistral Large 3 (880), dar în spatele gpt-oss-120B (înalt, 962), NVIDIA Nemotron 3 Super 120B A12B (Reasoning, 1021) și Qwen3.5 122B A10B (Reasoning, 1130)
➤ Rată mai mică de halucinații decât modelele similare de dimensiuni similare: Mistral Small 4 scorează -30 la AA-Omniscience, evaluarea noastră a fiabilității cunoașterii și halucinațiilor, unde scorurile variază de la -100 la 100 (mai mare cu atât mai bine), iar un scor negativ indică mai multe răspunsuri greșite decât corecte. Mistral Small 4 scorează înaintea gpt-oss-120B (mare, -50), Qwen3.5 122B A10B (Raționament, -40) și NVIDIA Nemotron 3 Super 120B A12B (Raționament, -42)
Detalii cheie despre model:
➤ Fereastră de context: 256K jetoane (în creștere de la 128K pe Small 3.2)
➤ Preț: $0,15/$0,6 pentru fiecare token de intrare/ieșire de 1M
➤ Disponibilitate: doar API first-party Mistral. La precizia nativă FP8, parametrii 119B ai Mistral Small 4 necesită ~119GB pentru a găzdui singur greutățile (mai mult decât cei 80GB de memorie HBM3 de pe un singur NVIDIA H100)
➤ Modalitate: Intrare de imagine și text doar cu ieșire text
➤ Licențiere: licență Apache 2.0

În ceea ce privește Inteligența vs Parametrii Totali, Mistral Small 4 (Raționament, 27) oferă un compromis mai puțin favorabil decât colegii de dimensiuni similare, precum gpt-oss-120B (înalt, 33), NVIDIA Nemotron 3 Super 120B A12B (Raționament, 36) și Qwen3.5 122B A10B (Raționament, 42)

La ~52M tokenuri de ieșire, Mistral Small 4 (Raționament) folosește mai puține tokenuri pentru a rula Artificial Analysis Intelligence Index comparativ cu modele similare precum gpt-oss-120B (înalt, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raționament, ~110M) și Qwen3.5 122B A10B (Raționament, ~91M)

Defalcare completă a rezultatelor:

Rezultatele complete sunt disponibile pe pagina modelului Mistral Small 4 despre Analiza Artificială:
8,24K
Limită superioară
Clasament
Favorite
