Type something to search...
AI21: Jamba Instruct

AI21: Jamba Instruct

  • 250K Context
  • 0.5/M Input Tokens
  • 0.7/M Output Tokens

The Jamba-Instruct model, introduced by AI21 Labs, is an instruction-tuned variant of their hybrid SSM-Transformer Jamba model, specifically optimized for enterprise applications.

  • 256K Context Window: 它可以处理大量信息,相当于一本400页的小说,这对于涉及大文件的任务(如财务报告或法律文件)非常有利
  • Safety and Accuracy: Jamba-Instruct 设计了增强的安全功能,以确保在企业环境中的安全部署,降低实施的风险和成本

Read their announcement to learn more.

Jamba has a knowledge cutoff of February 2024.

Related Posts

Jamba 1.5 Large 是 AI21 新一代开放模型家族的一部分,提供卓越的速度、效率和质量。 它具有 256K 的有效上下文窗口,是开放模型中最长的,能够在文档摘要和分析等任务上提升性能。 基于新颖的 SSM-Transformer 架构,它在基准测试中超越了更大的模型,如 Llama 3.1 70B,同时保持资源效率。 阅读他们的 [announcement](https:// ...

AI21: Jamba 1.5 Large
Ai21
250K context $2/M input tokens $8/M output tokens

Jamba 1.5 Mini 是世界上首个生产级的基于 Mamba 的模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效能。 它支持 9 种语言,能够处理各种写作和分析任务,表现与类似的小模型相当或更好。 该模型使用更少的计算机内存,并且在处理较长文本时比以前的设计更快。 阅读他们的 [announcement](https://www.ai21.c ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens