MistralAI
Mistral AI是一家尖端人工智能公司,由前DeepMind和Meta AI研究人员于2023年创立。Mistral AI专注于大型语言模型和生成式AI,致力于开发强大、高效和开源的AI技术。
最新模型进展
Mistral AI的模型系列展现了其在AI领域的实力:
- Mistral Large 2: 拥有128k上下文窗口,是目前最强大的模型之一,质量指数达到91。
- Mixtral 8x22B: 具有65k上下文窗口,在性能和质量方面表现出色。
- Mistral Small: 支持128k上下文窗口,提供优秀的性价比。
技术优势
- 高性能输出: Ministral 3B可达到204.4 tokens/s的输出速度
- 低延迟: Mistral 7B的延迟仅为0.45秒,是最低延迟的模型之一
- 灵活定价: 从每百万tokens $0.04到$6.00不等的定价选项
- 功能完备: 所有模型都支持函数调用和JSON模式
创新特色
Mistral AI的模型在多个方面展现出独特优势:
- 大规模上下文处理能力,最高支持256k(Codestral-Mamba)
- 优秀的性价比,适合不同规模的应用场景
- 开源承诺,推动AI技术的民主化发展
未来展望
Mistral AI通过持续创新和开源开发,正在重塑AI行业格局。他们致力于提供更强大、更高效的AI解决方案,同时保持对负责任AI实践的承诺。
Ministral 3B 是一个针对设备和边缘计算优化的 3B 参数模型。它在知识、常识推理和函数调用方面表现出色,在大多数基准测试中超越了像 Mistral 7B 这样的更大模型。支持最长 128k 的上下文长度,非常适合高效推理的代理工作流和专业任务的协调。 ...
Ministral 8B 是一个具有 8B 参数的模型,采用独特的交错滑动窗口注意力模式,以实现更快、更节省内存的推理。该模型专为边缘使用案例设计,支持最长 128k 的上下文长度,并在知识和推理任务中表现出色。它在低于 10B 的类别中优于同类产品,非常适合低延迟、注重隐私的应用。 ...
一个高性能、行业标准的7.3B参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct有多个版本变体,本文旨在介绍最新版本。 ...
由Mistral与NVIDIA合作构建的12B参数模型,具有128k的上下文长度。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在Apache 2.0许可证下发布。 ...
该模型目前由 Mistral-7B-v0.2 驱动,并结合了比 Mistral 7B 更“优越”的微调,灵感来自社区的工作。它最适合用于大批量处理任务,在这些任务中,成本是一个重要因素,但推理能力并不是关键。 ...
A 7.3B 参数的基于 Mamba 的模型,旨在处理代码和推理任务。线性时间推理,允许理论上无限的序列长度 256k 令牌上下文窗口 针对快速响应进行了优化,特别有利于代码生产力 在代码和推理任务中表现与最先进的变换器模型相当 根据 Apache 2.0 许可证提供,允许免费使用、修改和分发...
一个高性能、行业标准的 7.3B 参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct 有多个版本变体,这里是最新版本。 ...
这是 Mistral AI 的旗舰模型,Mistral Large 2(版本 mistral-large-2407)。它是一个专有的可用权重模型,擅长推理、代码、JSON、聊天等。请在 这里 阅读发布公告。 它支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在 ...
这是 Mistral AI 的旗舰模型,Mistral Large 2(版本 mistral-large-2407)。它是一个专有的可用权重模型,擅长推理、代码、JSON、聊天等。请在 这里 阅读发布公告。 它支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在 ...
A 12B 参数模型,具有 128k 令牌上下文长度,由 Mistral 与 NVIDIA 合作构建。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在 Apache 2.0 许可证下发布。 ...
成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。 ...
该模型目前由 Mistral-7B-v0.2 提供支持,并结合了比 Mistral 7B 更“优秀”的微调,灵感来自社区的工作。它最适合用于大批量处理任务,在这些任务中,成本是一个重要因素,但推理能力并不是关键。 ...
一个由 Mistral AI 提供的预训练生成稀疏专家混合模型,包含 8 个专家(前馈网络),总计 47B 参数。基础模型(未针对指令进行微调) - 请参见 Mixtral 8x7B Instruct 以获取经过指令微调的模型。 #moe ...
Mistral AI 的第一个图像到文本模型。根据他们的传统,其权重通过 torrent 发布: https://x.com/mistralai/status/1833758285167722836 ...
Pixtral Large 是一个 124B 开放权重的多模态模型,基于 Mistral Large 2 构建。该模型能够理解文档、图表和自然图像。 该模型在 Mistral Research License (MRL) 下提供,供研究和教育使用;并在 Mistral Commercial License 下提供,供实验、测试和 ...
Mistral的官方指令微调版本Mixtral 8x22B。它使用141B中的39B活跃参数,为其规模提供无与伦比的成本效益。它的优点包括:强大的数学、编码和推理能力 大上下文长度(64k) 流利的英语、法语、意大利语、德语和西班牙语在发布公告中查看基准测试[这里](https://mistra ...
一个由Mistral AI开发的预训练生成稀疏专家混合模型,包含8个专家(前馈网络),总计47B参数。基础模型(未针对指令进行微调) - 请参见Mixtral 8x7B Instruct以获取经过指令微调的模型。 #moe ...
Mistral AI 的第一个图像到文本模型。根据他们的传统,其权重通过 torrent 发布: https://x.com/mistralai/status/1833758285167722836 ...