Type something to search...
Phi-3.5 Mini 128K Instruct

Phi-3.5 Mini 128K Instruct

  • 125K Context
  • 0.1/M Input Tokens
  • 0.1/M Output Tokens
模型已不可用

Phi-3.5 模型是轻量级的、先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公共网站数据,重点关注高质量和推理密集的特性。Phi-3.5 Mini 使用 3.8B 参数,是一种仅解码的稠密变换器模型,使用与 Phi-3 Mini 相同的分词器。

这些模型经过严格的增强过程,结合了监督微调、邻近策略优化和直接偏好优化,以确保精确的指令遵循和强大的安全措施。在针对测试常识、语言理解、数学、代码、长上下文和逻辑推理的基准评估中,Phi-3.5 模型在参数少于 130 亿的模型中展示了强大且先进的性能。

Related Posts

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...

Phi-3 Medium 128K Instruct
Microsoft
125K context $1/M input tokens $1/M output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于截止到 2023 年 10 月的离线数据集。 ...

Phi-3 Mini 128K Instruct
Microsoft
125K context $0.1/M input tokens $0.1/M output tokens

WizardLM-2 7B 是微软 AI 最新 Wizard 模型的较小版本。它是最快的,并且在性能上与现有的 10 倍更大的开源领先模型相当。 它是对 Mistral 7B Instruct 的微调,使用与 [WizardLM-2 8x22B](/microsoft/wizardlm-2-8x22 ...

WizardLM-2 7B
Microsoft
31.25K context $0.055/M input tokens $0.055/M output tokens

WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型。与领先的专有模型相比,它展示了高度竞争的性能,并且始终优于所有现有的最先进的开源模型。 它是 Mixtral 8x22B 的指令微调版本。 要了解有关模型发布的更多信息,[请点击这里](https://wizardlm.github ...

WizardLM-2 8x22B
Microsoft
64K context $0.5/M input tokens $0.5/M output tokens