OpenChat 3.5 7B
- 8K Context
 - 0.055/M Input Tokens
 - 0.055/M Output Tokens
 
- Openchat
 - Text 2 text
 - 28 Nov, 2023
 
  模型已不可用  
 OpenChat 7B 是一个开源语言模型库,采用“C-RLFT(条件强化学习微调)”策略进行了微调,该策略受到离线强化学习的启发。它在没有偏好标签的混合质量数据上进行了训练。
- 对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。
 - 对于在 Llama 8B 上微调的 OpenChat,请查看 OpenChat 8B。
 
#open-source