Cheaper, Better, Faster, Stronger

Mistral AI har lanserat mixtral 8x22b, en ny öppen AI-modell som sätter en ny standard för prestanda och effektivitet inom AI-gemenskapen. Modellen är en 'sparse mixture-of-experts' (SMoE) som använder endast 39 miljarder aktiva parametrar av 141 miljarder, vilket ger oöverträffad kostnadseffektivitet. mixtral 8x22b är flerspråkig (engelska, franska, italienska, tyska, spanska), har starka matematiska och kodningsförmågor, och stöder 'function calling' med ett 64k tokens kontextfönster. Den släpps under Apache 2.0-licensen, vilket betonar Mistral AI:s engagemang för öppenhet och innovation. Modellen överträffar andra öppna modeller i prestanda på standardiserade benchmarks för resonemang, kunskap, flerspråkighet, matematik och kodning.