Type something to search...
AI21: Jamba 1.5 Large

AI21: Jamba 1.5 Large

  • 250K Context
  • 2/M Input Tokens
  • 8/M Output Tokens
模型已不可用

Jamba 1.5 Large 是 AI21 新一代开放模型家族的一部分,提供卓越的速度、效率和质量。

它具有 256K 的有效上下文窗口,是开放模型中最长的,能够在文档摘要和分析等任务上提升性能。

基于新颖的 SSM-Transformer 架构,它在基准测试中超越了更大的模型,如 Llama 3.1 70B,同时保持资源效率。

阅读他们的 announcement 以了解更多信息。

Related Posts

Jamba 1.5 Mini 是世界上首个生产级 Mamba 基础模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效率。 它支持 9 种语言,并能够处理各种写作和分析任务,效果与类似的小模型相当或更好。 该模型比以前的设计使用更少的计算机内存,并且在处理较长文本时速度更快。 阅读他们的 [公告](https://www.a ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens