Mistral Large2模型概述
-
参数与上下文窗口:
- 拥有1230亿个参数。
- 配备128k的上下文窗口。
-
语言支持:
- 支持法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语等多种语言。
- 支持80多种编程语言,包括Python、Java、C、C++、JavaScript和Bash。
-
设计目的与发布:
- 专为单节点推理设计,主要针对长上下文应用。
- 根据Mistral研究许可证发布,用于研究和非商业用途。商业用途需获取商业许可证。
-
性能表现:
- 在MMLU基准测试中实现了84.0%的准确率,树立了新的标杆。
- 在代码处理方面表现优异,与GPT-4o、Claude3Opus和Llama3405B等顶尖模型相媲美。
- 在指令遵循和对话能力上取得显著进展,尤其在处理复杂、多轮对话时更加灵活。
-
工具使用和函数调用:
- 具备增强的函数调用和检索技能,能熟练执行并行和顺序函数调用。
-
产品可用性:
- 用户可在La Plateforme(https://console.mistral.ai/)使用Mistral Large2,名称为
mistral-large-2407
。 - 模型权重也托管在HuggingFace上(https://huggingface.co/mistralai/Mistral-Large-Instruct-2407)。
- 用户可在La Plateforme(https://console.mistral.ai/)使用Mistral Large2,名称为
-
云服务合作:
- 与多家领先的云服务提供商合作,使Mistral Large2全球范围内可用,特别是在Google Cloud Platform的Vertex AI中。
关键点总结
- 🌟 大规模参数与上下文窗口:1230亿参数和128k上下文窗口。
- 📈 卓越性能:在MMLU基准测试中达成84.0%准确率。
- 💻 多平台访问:可通过La Plateforme和多个云服务平台广泛应用。