法国初创公司 Mistral 发布了基本上是 GPT-4 的产品。
法国初创公司 Mistral AI 通过 torrent 发布了其新语言模型 Mixtral 8x7B。 Mixtral 是一种专家混合模型,类似于 OpenAI 据说用于 GPT-4 的架构,但要复杂得多。
Mistral-7B 是 Mistral AI 的第一个版本,总体表现良好,很快被开源社区采纳为模型。 据信 Mistral 使用 MegaBlocks MoE 作为训练库。 这家总部位于巴黎的公司最近的估值已接近 20 亿美元。
来源和详细信息:
https://the-decoder.com/mixtral-french-start-up-mistral-releases-what-is-essentially-a-small-gpt-4/