Type something to search...
Dolphin 2.9.2 Mixtral 8x22B 🐬

Dolphin 2.9.2 Mixtral 8x22B 🐬

  • 64K Context
  • 0.9/M Input Tokens
  • 0.9/M Output Tokens
模型已不可用

Dolphin 2.9 旨在进行指令跟随、对话和编码。该模型是 Mixtral 8x22B Instruct 的微调版本。它具有 64k 的上下文长度,并使用 ChatML 模板进行了 16k 序列长度的微调。

该模型是 Dolphin Mixtral 8x7B 的继任者。

该模型未经过审查,并去除了对齐和偏见。它需要外部对齐层以确保伦理使用。用户被警告要负责任地使用这个高度合规的模型,详细信息请参见关于未审查模型的博客文章 erichartford.com/uncensored-models

#moe #uncensored

Related Posts

这是对 Mixtral-8x7b 的 16k 上下文微调。由于大量使用编码数据进行训练,它在编码任务中表现出色,并以其服从性而闻名,尽管缺乏 DPO 调优。 该模型未经过审查,并且去除了对齐和偏见。它需要一个外部对齐层以确保伦理使用。用户被提醒要负责任地使用这个高度合规的模型,具体细节可参见关于未审查模型的博客文 ...

Dolphin 2.6 Mixtral 8x7B 🐬
Cognitivecomputations
32K context $0.5/M input tokens $0.5/M output tokens