Type something to search...
AI21: Jamba 1.5 Large

AI21: Jamba 1.5 Large

  • 250K Context
  • 2/M Input Tokens
  • 8/M Output Tokens

Jamba 1.5 Large 是 AI21 新一代开放模型家族的一部分,提供卓越的速度、效率和质量。

它具有 256K 的有效上下文窗口,是开放模型中最长的,能够在文档摘要和分析等任务上提升性能。

基于新颖的 SSM-Transformer 架构,它在基准测试中超越了更大的模型,如 Llama 3.1 70B,同时保持资源效率。

阅读他们的 announcement 以了解更多信息。

Related Posts

Jamba 1.5 Mini 是世界上首个生产级的基于 Mamba 的模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效能。 它支持 9 种语言,能够处理各种写作和分析任务,表现与类似的小模型相当或更好。 该模型使用更少的计算机内存,并且在处理较长文本时比以前的设计更快。 阅读他们的 [announcement](https://www.ai21.c ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens

The Jamba-Instruct model, introduced by AI21 Labs, is an instruction-tuned variant of their hybrid SSM-Transformer Jamba model, specifically optimized for enterprise applications.256K Context Win...

AI21: Jamba Instruct
Ai21
250K context $0.5/M input tokens $0.7/M output tokens