一项针对10多万受访者的持续调查显示,人工智能爱好者更喜欢使用开源工具,而不是专有的商业工具。

Mistral人工智能的Mixtral 8x7B开源模型的出现,对人工智能领域产生了重大影响。Decrypt将其评为2023年最佳LLM之一。Mixtral因其在各种基准测试中的卓越表现而备受关注,尤其是Chatbot Arena,它提供了一种独特的以人为中心的方法来评估LLM。

Chatbot Arena排名是一个众包列表,利用超过130000张用户投票来计算人工智能模型的Elo评级。与其他试图将结果标准化以更客观的方法相比,竞技场选择了一种更“人性化”的方法,要求人们在身份不明的LLMS提供的两个回复之间盲目选择。按照某些标准,这些反应可能显得非常规,但可以由实际的人类用户直观地进行评估。

Mixtral有着令人印象深刻的地位,超过了行业巨头,如Anthropíc的Claude 2.1、OpenAI的GPT-3.5,后者为免费版本的ChatGPT提供动力,以及谷歌的Gemini,一种多模式LLM,它被作为最强大的聊天机器人出售,以挑战GPT-4的主导地位。

Mixtral的显著区别之一是成为Chatbot Arena前十名中唯一的开源LLM。这种区别不仅仅是排名问题;它代表着人工智能行业向更易于访问和社区驱动的模型的重大转变。据Decrypt报道,Mistral AI表示,其模型“在大多数基准测试中以6倍的推理速度优于LlaMA 2 70B,在大多数标准基准测试中匹配或优于GPT 3.5”,如MMLU、Arc-C或GSM。

Mixtral成功背后的秘密在于其“专家混合”(MoE)架构。这项技术采用了多个虚拟专家模型,每个模型专门研究一个不同的主题或领域。当遇到问题时,Mixtral会从其人才库中选择最相关的专家,从而获得更准确、更高效的输出。

Mistral在LLM最近发表的论文中解释道:“在每一层,对于每一个令牌,路由器网络都会选择其中两组(‘专家’)来处理令牌,并将其输出相加。”。“这项技术增加了模型的参数数量,同时控制了成本和延迟,因为模型每个令牌只使用总参数集的一小部分。”

此外,Mixtral以其多语言能力而闻名。该模型擅长法语、德语、西班牙语、意大利语和英语等语言,展示了其多功能性和广泛的潜力。它的开源性质,在Apache 2.0许可证下,允许开发人员自由探索、修改和增强模型,从而形成一个协作和创新的环境。

Mixtral的成功显然不仅仅在于技术实力;这标志着开源人工智能社区取得了一个微小但重要的胜利。也许,在不远的将来,问题不会是哪个模型最先出现,或者哪个模型有更多的参数或上下文能力,而是哪个模型真正能引起人们的共鸣。

由Ryan Ozawa编辑。

微信里点“发现”,扫一下二维码便可将本篇文章分享至朋友圈