OpenChat 3.5 7B     
 - 8K Context
 - 0.055/M Input Tokens
 - 0.055/M Output Tokens
 
- Openchat
 - Text 2 text
 - 03 Dec, 2024
 
OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的微调——这是一种受离线强化学习启发的策略。它在混合质量的数据上进行训练,没有偏好标签。
- 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。
 - 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B。
 
#open-source