Type something to search...
Dolphin 2.6 Mixtral 8x7B 🐬

Dolphin 2.6 Mixtral 8x7B 🐬

  • 32K Context
  • 0.5/M Input Tokens
  • 0.5/M Output Tokens
模型已不可用

这是对 Mixtral-8x7b 的 16k 上下文微调。由于大量使用编码数据进行训练,它在编码任务中表现出色,并以其服从性而闻名,尽管缺乏 DPO 调优。

该模型未经过审查,并且去除了对齐和偏见。它需要一个外部对齐层以确保伦理使用。用户被提醒要负责任地使用这个高度合规的模型,具体细节可参见关于未审查模型的博客文章 erichartford.com/uncensored-models

#moe #uncensored

Related Posts

Dolphin 2.9 旨在进行指令跟随、对话和编码。该模型是 Mixtral 8x22B Instruct 的微调版本。它具有 64k 的上下文长度,并使用 ChatML 模板进行了 16k 序列长度的微调。 该模型是 [Dolphin Mixtral 8x7B](/cognitivecom ...

Dolphin 2.9.2 Mixtral 8x22B 🐬
Cognitivecomputations
64K context $0.9/M input tokens $0.9/M output tokens