Dolphin 2.9.2 Mixtral 8x22B 🐬
- 64K Context
- 0.9/M Input Tokens
- 0.9/M Output Tokens
- Cognitivecomputations
- Text 2 text
- 08 Jun, 2024
模型已不可用
Dolphin 2.9 旨在进行指令跟随、对话和编码。该模型是 Mixtral 8x22B Instruct 的微调版本。它具有 64k 的上下文长度,并使用 ChatML 模板进行了 16k 序列长度的微调。
该模型是 Dolphin Mixtral 8x7B 的继任者。
该模型未经过审查,并去除了对齐和偏见。它需要外部对齐层以确保伦理使用。用户被警告要负责任地使用这个高度合规的模型,详细信息请参见关于未审查模型的博客文章 erichartford.com/uncensored-models。
#moe #uncensored