OpenChat 3.5 7B
- 8K Context
- 0.055/M Input Tokens
- 0.055/M Output Tokens
- Openchat
- Text 2 text
- 28 Nov, 2023
模型已不可用
OpenChat 7B 是一个开源语言模型库,采用“C-RLFT(条件强化学习微调)”策略进行了微调,该策略受到离线强化学习的启发。它在没有偏好标签的混合质量数据上进行了训练。
- 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。
- 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B。
#open-source