Dolphin 2.6 Mixtral 8x7B 🐬
- 32K Context
- 0.5/M Input Tokens
- 0.5/M Output Tokens
- Cognitivecomputations
- Text 2 text
- 21 Dec, 2023
模型已不可用
这是对 Mixtral-8x7b 的 16k 上下文微调。由于大量使用编码数据进行训练,它在编码任务中表现出色,并以其服从性而闻名,尽管缺乏 DPO 调优。
该模型未经过审查,并且去除了对齐和偏见。它需要一个外部对齐层以确保伦理使用。用户被提醒要负责任地使用这个高度合规的模型,具体细节可参见关于未审查模型的博客文章 erichartford.com/uncensored-models。
#moe #uncensored