Type something to search...
OpenChat 3.5 7B

OpenChat 3.5 7B

  • 8K Context
  • 0.055/M Input Tokens
  • 0.055/M Output Tokens

OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的微调——这是一种受离线强化学习启发的策略。它在混合质量的数据上进行训练,没有偏好标签。

  • 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B
  • 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B

#open-source

Related Posts