Mistral发布开放大模型Mixtral 8x22B,引领AI创新

据法国AI创业公司Mistral宣布,他们推出了最新的开放大模型Mixtral 8x22B,Mixtral 8x22B采用Apache 2.0许可证,任何人都可以自由使用,这使得它成为了一种真正开放的模型。

Mixtral 8x22B是一种稀疏的Mixture-of-Experts(SMoE)模型,具有1410亿个参数,但实际活跃参数只有390亿个。

Mixtral 8x22B具备多项优点,包括精通英语、法语、意大利语、德语和西班牙语,具有强大的数学和编码能力,并支持原生能函数调用。此外,该模型还具有64K令牌的上下文窗口。

Mistral的Mixtral 8x22B模型在AI领域引起了广泛关注。其出色的性能和开放的许可证使其成为许多研究人员和开发者的理想选择。这一模型的发布将进一步推动AI技术的创新和发展。


⛱️标签:#AI #人工智能
🌠频道:@ArgunRiver
🌌投稿:@ArgunRiver_bot
 
 
Back to Top