🚨新聞:Mistral 剛剛大規模刪除了三個自己的模型 他們將 magistral(推理)、pixtral(多模態)和 devstral(編碼)合併為一個單一模型 mistral small 4 而這裡的時機很有趣 他們還剛剛宣布與 NVIDIA 建立戰略合作夥伴關係,共同開發前沿開源模型 那麼 small 4 實際上是什麼樣子: >128 位專家在專家混合設置中 >每個標記僅激活 6B 參數,總共 119B >256k 上下文窗口 >apache 2.0 完全開源 >比 small 3 快 40% 且吞吐量提高 3 倍 但值得注意的是 reasoning_effort 參數 你可以將其設置為 "none" 以獲得快速輕量的回應 或將其調高至 "high" 以進行深入的逐步推理 同一模型同時執行兩者 這清楚地表明了開源 AI 的發展方向 公司不再需要維護五個不同的模型來處理五個不同的任務 一個模型根據你需要它做的事情進行調整...