Type something to search...
OpenChat 3.5 7B

OpenChat 3.5 7B

  • 8K Context
  • 0.055/M Input Tokens
  • 0.055/M Output Tokens
模型已不可用

OpenChat 7B 是一个开源语言模型库,采用“C-RLFT(条件强化学习微调)”策略进行了微调,该策略受到离线强化学习的启发。它在没有偏好标签的混合质量数据上进行了训练。

  • 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B
  • 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B

#open-source

Related Posts