トレンドトピック
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
MistralはMistral Small 4をリリースしました。これはハイブリッド推論と画像入力を備えたオープンウェイトモデルで、Artificial Analysis Intelligence Indexで27点を獲得しました
@MistralAIのSmall 4は、119Bの専門家混合モデルで、トークンあたり65億のアクティブパラメータを持ち、推論モードと非推論モードの両方をサポートしています。
推論モードでは、Mistral Small 4は人工分析知能指数で27点を獲得し、Small 3.2(15)から12ポイント向上し、Mistralがリリースした中でも最も知能の高いモデルの一つとなり、Mistral Large 3(23)を上回り、独自のMagistral Medium 1.2(27)に匹敵します。しかし、gpt-oss-120B(高33)、NVIDIA Nemotron 3 Super 120B A12B(Reasoning、36)、Qwen3.5 122B A10B(Reasoning、42)など、同じような総パラメータ数のオープンウェイトを持つ同業他社に遅れをとっています。
主なポイント:
† 推論モードと非推論モードを単一のモデルで提供:Mistral Small 4は、推論モードと非推論モードを組み合わせた設定可能なハイブリッド推論をサポートしており、Mistralが以前にMagistralモデルでリリースした別の推論バリアントとは異なります。推論モードでは、モデルは人工分析知能指数で27点を獲得します。非推論モードでは19点を獲得し、前モデルのMistral Small 3.2(15点)から4ポイント改善しています
⁉ 同規模のピアよりもトークン効率が高い:約52Mの出力トークンで、Mistral Small 4(Reasoning)はgpt-oss-120B(高~78M)、NVIDIA Nemotron 3 Super 120B A12B(Reasoning、~110M)、Qwen3.5 122B A10B(Reasoning、~91M)と比べて、Artificial Analysis Intelligence Indexを実行するために少ないトークンを使用します。非推論モードでは、モデルは約400万個の出力トークンを使用します
† 画像入力のネイティブサポート:Mistral Small 4はマルチモーダルモデルで、画像入力とテキストの両方を受け入れています。私たちのマルチモーダル評価では、MMMU-ProのMistral Small 4(Reasoning)が57%のスコアを獲得し、Mistral Large 3(56%)を上回りますが、Qwen3.5 122B A10B(Reasoning、75%)に及びません。gpt-oss-120BもNVIDIA Nemotron 3 Super 120B A12Bも画像入力をサポートしていません。すべてのモデルはテキスト出力のみに対応しています
† 現実世界のエージェント的タスクの改善:Mistral Small 4は、OpenAIのGDPvalデータセットに基づくGDPval-AAでElo871を獲得しました。このデータセットは44の職業と9つの主要産業の実際の課題でモデルをテストし、ドキュメント、スプレッドシート、図などの納品物をエージェントループで生成しています。これはSmall 3.2(339)の2倍以上で、Mistral Large 3(880)に近いですが、gpt-oss-120B(最高962)、NVIDIA Nemotron 3 Super 120B A12B(Reasoning、1021)、Qwen3.5 122B A10B(Reasoning、1130)に及びません
† 同規模のピアモデルよりも幻覚率が低い:Mistral Small 4は、知識の信頼性と幻覚を評価するAA-Omniscienceで-30点を獲得しました。スコアは-100から100(高いほど良い)の範囲で、マイナススコアは正解よりも不正解が多いことを示します。Mistral Small 4はgpt-oss-120B(高値-50)、Qwen3.5 122B A10B(Reasoning-40)、NVIDIA Nemotron 3 Super 120B A12B(Reasoning-42)を上回っています。
主なモデルの詳細:
† コンテキストウィンドウ:256Kトークン(Small 3.2の128Kから増加)
† 価格設定:100万個の入出力トークンあたり$0.15/$0.6
† 利用可能性:MistralファーストパーティAPIのみ。FP8のネイティブ精度では、Mistral Small 4の119Bパラメータは重みをセルフホストするのに~119GB必要で、これはNVIDIA H100の80GBのHBM3メモリよりも多いです
† モダリティ:画像とテキスト入力にテキスト出力のみ
† ライセンス:Apache 2.0ライセンス

知能と総パラメータの比較では、Mistral Small 4(Reasoning、27)は、gpt-oss-120B(高い、33)、NVIDIA Nemotron 3 Super 120B A12B(Reasoning、36)、Qwen3.5 122B A10B(Reasoning、42)など、同サイズの同業他社に比べてトレードオフが劣ります

出力トークン数が約5200万枚のMistral Small 4(Reasoning)は、gpt-oss-120B(高確率、約7,800万)、NVIDIA Nemotron 3 Super 120B A12B(推論用、約110M)、Qwen3.5 122B A10B(推論用、約91M)と比べて、人工分析知能指数を実行する際に少ないトークンを使用します

結果の詳細な内訳:

完全な結果はMistral Small 4モデルの人工解析ページでご覧いただけます:
8.13K
トップ
ランキング
お気に入り
