OpenChat 3.5 7B
- 8K Context
- 0.055/M Input Tokens
- 0.055/M Output Tokens
- Openchat
- Text 2 text
- 03 Dec, 2024
OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的微调——这是一种受离线强化学习启发的策略。它在混合质量的数据上进行训练,没有偏好标签。
- 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。
- 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B。
#open-source