WizardLM-2 8x22B
- 64K Context
- 0.5/M Input Tokens
- 0.5/M Output Tokens
- Microsoft
- Text 2 text
- 16 Apr, 2024
WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型。与领先的专有模型相比,它展示了高度竞争的性能,并且始终优于所有现有的最先进的开源模型。
它是 Mixtral 8x22B 的指令微调版本。
要了解有关模型发布的更多信息,请点击这里。
#moe
WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型。与领先的专有模型相比,它展示了高度竞争的性能,并且始终优于所有现有的最先进的开源模型。
它是 Mixtral 8x22B 的指令微调版本。
要了解有关模型发布的更多信息,请点击这里。
#moe
Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...
Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于截止到 2023 年 10 月的离线数据集。 ...
Phi-3.5 模型是轻量级的、先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公共网站数据,重点关注高质量和推理密集的特性。Phi-3.5 Mini 使用 3.8B 参数,是一种仅解码的稠密变换器模型,使用与 Phi-3 Mini 相同的分词器。 ...
WizardLM-2 7B 是微软 AI 最新 Wizard 模型的较小版本。它是最快的,并且在性能上与现有的 10 倍更大的开源领先模型相当。 它是对 Mistral 7B Instruct 的微调,使用与 [WizardLM-2 8x22B](/microsoft/wizardlm-2-8x22 ...