Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A Mistral lançou o Mistral Small 4, um modelo de pesos abertos com raciocínio híbrido e entrada de imagem, pontuando 27 no Índice de Inteligência de Análise Artificial.
O Small 4 da @MistralAI é um modelo de mistura de especialistas de 119B com 6.5B de parâmetros ativos por token, suportando modos de raciocínio e não raciocínio.
No modo de raciocínio, o Mistral Small 4 pontua 27 no Índice de Inteligência de Análise Artificial, uma melhoria de 12 pontos em relação ao Small 3.2 (15) e agora está entre os modelos mais inteligentes que a Mistral lançou, superando o Mistral Large 3 (23) e igualando o Magistral Medium 1.2 (27). No entanto, ele fica atrás de pares de pesos abertos com contagens de parâmetros totais semelhantes, como gpt-oss-120B (alto, 33), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, 36) e Qwen3.5 122B A10B (Raciocínio, 42).
Principais conclusões:
➤ Modos de raciocínio e não raciocínio em um único modelo: O Mistral Small 4 suporta raciocínio híbrido configurável com modos de raciocínio e não raciocínio, em vez das variantes de raciocínio separadas que a Mistral lançou anteriormente com seus modelos Magistral. No modo de raciocínio, o modelo pontua 27 no Índice de Inteligência de Análise Artificial. No modo de não raciocínio, o modelo pontua 19, uma melhoria de 4 pontos em relação ao seu predecessor Mistral Small 3.2 (15).
➤ Mais eficiente em tokens do que pares de tamanho semelhante: Com ~52M de tokens de saída, o Mistral Small 4 (Raciocínio) usa menos tokens para executar o Índice de Inteligência de Análise Artificial em comparação com modelos de raciocínio como gpt-oss-120B (alto, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, ~110M) e Qwen3.5 122B A10B (Raciocínio, ~91M). No modo de não raciocínio, o modelo usa ~4M de tokens de saída.
➤ Suporte nativo para entrada de imagem: O Mistral Small 4 é um modelo multimodal, aceitando entrada de imagem, bem como texto. Na nossa avaliação multimodal, MMMU-Pro, o Mistral Small 4 (Raciocínio) pontua 57%, à frente do Mistral Large 3 (56%), mas atrás do Qwen3.5 122B A10B (Raciocínio, 75%). Nem o gpt-oss-120B nem o NVIDIA Nemotron 3 Super 120B A12B suportam entrada de imagem. Todos os modelos suportam apenas saída de texto.
➤ Melhoria em tarefas agentivas do mundo real: O Mistral Small 4 pontua um Elo de 871 no GDPval-AA, nossa avaliação baseada no conjunto de dados GDPval da OpenAI que testa modelos em tarefas do mundo real em 44 ocupações e 9 indústrias principais, com modelos produzindo entregáveis como documentos, planilhas e diagramas em um loop agentivo. Isso é mais do que o dobro do Elo do Small 3.2 (339) e próximo do Mistral Large 3 (880), mas atrás do gpt-oss-120B (alto, 962), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, 1021) e Qwen3.5 122B A10B (Raciocínio, 1130).
➤ Taxa de alucinação mais baixa do que modelos pares de tamanho semelhante: O Mistral Small 4 pontua -30 no AA-Omniscience, nossa avaliação de confiabilidade do conhecimento e alucinação, onde as pontuações variam de -100 a 100 (quanto maior, melhor) e uma pontuação negativa indica mais respostas incorretas do que corretas. O Mistral Small 4 pontua à frente do gpt-oss-120B (alto, -50), Qwen3.5 122B A10B (Raciocínio, -40) e NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, -42).
Detalhes principais do modelo:
➤ Janela de contexto: 256K tokens (aumentando de 128K no Small 3.2)
➤ Preços: $0.15/$0.6 por 1M de tokens de entrada/saída.
➤ Disponibilidade: Apenas API de primeira parte da Mistral. Com precisão nativa FP8, os 119B parâmetros do Mistral Small 4 requerem ~119GB para auto-hospedar os pesos (mais do que os 80GB de memória HBM3 em um único NVIDIA H100).
➤ Modalidade: Entrada de imagem e texto com saída de texto apenas.
➤ Licenciamento: Licença Apache 2.0.

Em Inteligência vs Parâmetros Totais, o Mistral Small 4 (Raciocínio, 27) oferece um trade-off menos favorável do que os concorrentes de tamanhos semelhantes, como o gpt-oss-120B (alto, 33), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, 36) e Qwen3.5 122B A10B (Raciocínio, 42)

Com ~52M de tokens de saída, o Mistral Small 4 (Raciocínio) utiliza menos tokens para executar o Índice de Análise de Inteligência Artificial em comparação com modelos semelhantes, como o gpt-oss-120B (alto, ~78M), NVIDIA Nemotron 3 Super 120B A12B (Raciocínio, ~110M) e Qwen3.5 122B A10B (Raciocínio, ~91M)

Análise completa dos resultados:

Resultados completos disponíveis na página do modelo Mistral Small 4 na Análise Artificial:
8,12K
Top
Classificação
Favoritos
