Type something to search...

Natural language processing

MiniMax-01 是一个结合了 MiniMax-Text-01 进行文本生成和 MiniMax-VL-01 进行图像理解的模型。它拥有 4560 亿个参数,每次推理激活 459 亿个参数,并且可以处理多达 400 万个 token 的上下文。 文本模型采用混合架构,结合了 Lightning Attention、Softmax Attention 和专家混合(MoE)。图像模型采用“ViT ...

MiniMax: MiniMax-01
Rifx.Online
976.75K context $0.2/M input tokens $1.1/M output tokens

Microsoft Research Phi-4 旨在在复杂推理任务中表现出色,并能够在内存有限或需要快速响应的情况下高效运行。 它拥有140亿个参数,训练使用了高质量的合成数据集、来自精心挑选网站的数据以及学术材料。经过仔细改进,它能够准确遵循指令并保持强大的安全标准。它最适合处理英语输入。 有关更多信息,请参见 [Phi-4 Technical Report] ...

Microsoft: Phi 4
Microsoft Azure
16K context $0.07/M input tokens $0.14/M output tokens
30% OFF

OpenAI 最新和最强大的模型系列,o1 旨在在响应之前花更多时间思考。 o1 模型针对数学、科学、编程和其他 STEM 相关任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。了解更多信息请查看 launch announcement。 注意:该模型目前处于实验阶段,不适合生产使用,并且可能会受到严重的速率限制。 ...

OpenAI: o1-preview
OpenAI
125K context $15/M input tokens $60/M output tokens
70% OFF

介绍 QwQ-32B-Preview 是由 Qwen 团队开发的实验研究模型,旨在提升 AI 推理能力。作为预览版本,它展示了有前景的分析能力,但也存在几个重要的局限性:语言混合和代码切换:该模型可能会意外混合语言或在语言之间切换,从而影响响应的清晰度。 递归推理循环:该模型可能会进入循环推理模式,导致响应冗长而没有结论性答案。 **安全和...

Qwen QwQ-32B-Preview
Qwen
32K context $0.12/M input tokens $0.18/M output tokens
40% OFF

OpenAI 最新和最强大的模型系列,o1 旨在在响应之前花更多时间思考。 o1 模型针对数学、科学、编程和其他 STEM 相关任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅 发布公告。 注意:该模型目前处于实验阶段,不适合生产使用,可能会受到严格的速率限制。 ...

OpenAI: o1-mini
OpenAI
125K context $3/M input tokens $12/M output tokens

1. 介绍 我们推出了 DeepSeek-V3,这是一款强大的混合专家 (MoE) 语言模型,拥有 671B 的总参数,其中每个令牌激活 37B。 为了实现高效推理和具有成本效益的训练,DeepSeek-V3 采用了多头潜在注意力 (MLA) 和 DeepSeekMoE 架构,这些架构在 DeepSeek-V2 中得到了充分验证。 此外,DeepSeek-V3 首创了一种无辅助损失的 ...

DeepSeek V3
DeepSeek
62.5K context $0.14/M input tokens $0.28/M output tokens

Gemini 2.0 Flash 提供了比 Gemini 1.5 Flash 更快的首次令牌时间 (TTFT),同时保持与更大模型如 Gemini 1.5 Pro 相当的质量。它在多模态理解、编码能力、复杂指令执行和函数调用方面引入了显著的增强。这些进步共同提供了更无缝和强大的代理体验。 ...

Google: Gemini 2.0 Flash Experimental
Google
976.56K context $0.2/M input tokens $0.6/M output tokens

OpenAI 最新和最强大的模型系列,o1 旨在在响应之前花更多时间思考。 o1 模型针对数学、科学、编程和其他 STEM 相关任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅 发布公告。 注意:该模型目前处于实验阶段,不适合生产使用,可能会受到严格的速率限制。 ...

OpenAI: o1-mini
OpenAI
125K context $3/M input tokens $12/M output tokens

OpenAI 最新且最强大的模型系列 o1 旨在在回应之前花更多时间思考。o1 模型系列通过大规模强化学习进行训练,以利用思维链进行推理。 o1 模型针对数学、科学、编程和其他与 STEM 相关的任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅 发布公告. ...

OpenAI: o1
OpenAI
195.31K context $15/M input tokens $60/M output tokens $0.022/M image tokens

DeepSeek-V3 是 DeepSeek 团队最新的模型,基于之前版本的指令跟随和编码能力。该模型在近 15 万亿个标记上进行预训练,报告的评估显示该模型在性能上优于其他开源模型,并与领先的闭源模型相媲美。有关模型的详细信息,请访问 DeepSeek-V3 仓库以获取更多信息。 DeepSeek-V2 Chat 是 DeepSeek-V2 的对话微调版本,属于混合专家(MoE)语言模型。 ...

DeepSeek V3
DeepSeek
62.5K context $0.14/M input tokens $0.28/M output tokens

Lunaris 8B 是一个基于 Llama 3 的多功能通用和角色扮演模型。它是多个模型的战略合并,旨在平衡创造力与改进的逻辑和一般知识。 由 Sao10k 创建,该模型旨在提供比 Stheno v3.2 更好的体验,具有增强的创造力和逻辑推理能力。 为了获得最佳效果,请使用 Llama 3 Instruct 上下文模板,温 ...

Sao10K: Llama 3 8B Lunaris
Rifx.Online
8K context $0.03/M input tokens $0.06/M output tokens

Mag Mell 是一个基于 Mistral Nemo 的预训练语言模型的合并,使用 mergekit 创建。它是一个出色的角色扮演和讲故事模型,结合了许多其他模型的最佳部分,成为许多用例的通用解决方案。 旨在成为任何虚构、创意用例的通用“最佳 Nemo”模型。 Mag Mell 由 3 个中间部分组成:Hero (RP, trop...

Inflatebot: Mag Mell R1 12B
Rifx.Online
15.63K context $0.9/M input tokens $0.9/M output tokens
FREE

Gemini 2.0 Flash Thinking Mode 是一个实验性模型,旨在生成模型在响应过程中所经历的“思维过程”。因此,Thinking Mode 在其响应中具备比 基础 Gemini 2.0 Flash 模型 更强的推理能力。 ...

Google: Gemini 2.0 Flash Thinking Experimental (free)
Google
39.06K context $0 input tokens $0 output tokens
50% OFF

EVA Llama 3.33 70b 是一个角色扮演和故事创作的专业模型。它是对 Llama-3.3-70B-Instruct 在合成数据和自然数据混合上的全参数微调。 它使用了 Celeste 70B 0.1 数据混合,极大地扩展了数据,以提高模型的多样性、创造力和“风味”。 ...

EVA Llama 3.33 70b
Eva unit 01
16K context $4/M input tokens $6/M output tokens

Grok 2 Vision 1212 通过更强的视觉理解、精细的指令跟随和多语言支持,推动基于图像的 AI 发展。从物体识别到风格分析,它使开发者能够构建更直观、具视觉意识的应用程序。其增强的可操控性和推理能力为下一代图像解决方案奠定了坚实的基础。 要了解更多关于该模型的信息,请查看 xAI's announcement. ...

xAI: Grok 2 Vision 1212
X AI
32K context $2/M input tokens $10/M output tokens $0.004/M image tokens
70% OFF

Amazon Nova Lite 1.0 是亚马逊推出的一款非常低成本的多模态模型,专注于快速处理图像、视频和文本输入以生成文本输出。Amazon Nova Lite 可以高精度地处理实时客户交互、文档分析和视觉问答任务。 在 300K tokens 的输入上下文下,它可以在单个输入中分析多个图像或长达 30 分钟的视频。 ...

nova-lite
Amazon
292.97K context $0.06/M input tokens $0.24/M output tokens
70% OFF

Amazon Nova Micro 1.0 是一个仅支持文本的模型,能够以非常低的成本在 Amazon Nova 系列模型中提供最低延迟的响应。它的上下文长度为 128K tokens,并针对速度和成本进行了优化,Amazon Nova Micro 在文本摘要、翻译、内容分类、互动聊天和头脑风暴等任务中表现出色。它具有简单的数学推理和编码能力。 ...

nova-micro
Amazon
125K context $0.03/M input tokens $0.14/M output tokens $0.053/K image tokens
70% OFF

Amazon Nova Pro 1.0 是一款来自亚马逊的强大多模态模型,专注于为广泛任务提供准确性、速度和成本的结合。截至2024年12月,它在关键基准测试上实现了最先进的性能,包括视觉问答(TextVQA)和视频理解(VATEX)。 Amazon Nova Pro 在处理视觉和文本信息以及分析财务文件方面表现出色。 注意:目前不支持视频输入和工具调用。 ...

nova-pro
Amazon
292.97K context $0.8/M input tokens $3.2/M output tokens $0.001/M image tokens

The Meta Llama 3.3 多语言大型语言模型 (LLM) 是一个经过预训练和指令调优的生成模型,参数为 70B(文本输入/文本输出)。Llama 3.3 指令调优的文本模型专为多语言对话用例优化,并在常见行业基准测试中超越了许多可用的开源和封闭聊天模型。 支持的语言:英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。 [模型卡片](https://github.com ...

Meta: Llama 3.3 70B Instruct
Meta Llama
128K context $0.13/M input tokens $0.4/M output tokens

text-embedding-3-large 是 OpenAI 于2024年发布的最新文本嵌入模型。相比前代模型,它具有以下主要特点: 主要特性更强的性能: 在大多数任务上的表现都优于之前的 text-embedding-ada-002 模型 更好的多语言支持: 支持100多种语言的文本嵌入 更长的上下文: 支持最多8192个tokens的输入...

text-embedding-3-large
OpenAI
$0.13/M input tokens $0 output tokens

这是一个系列模型,旨在复制Claude 3模型的散文质量,特别是Sonnet(https://openrouter.ai/anthropic/claude-3.5-sonnet)和Opus(https://openrouter.ai/anthropic/claude-3-opus)。 该模型是在[Qwen2.5 72B](https://openrouter.ai/qwen/qwen-2.5- ...

Magnum v4 72B
Anthracite org
32K context $1.875/M input tokens $2.25/M output tokens

Baichuan3-Turbo 是一款先进的人工智能语言模型,旨在为用户提供高效、智能的自然语言处理解决方案。该模型结合了最新的深度学习技术,具有强大的文本生成和理解能力,可以广泛应用于对话系统、内容创作、信息检索等领域。 主要特点:高效性:Baichuan3-Turbo 采用优化算法,使得处理速度显著提升,能够快速响应用户请求。多样性:该模型支持多...

baichuan3-turbo
Baichuan
31.25K context $1.7/M input tokens $1.7/M output tokens

Baichuan4 模型介绍 Baichuan4 是一款先进的人工智能语言模型,旨在增强自然语言理解和生成能力。该模型基于前沿的深度学习技术,适用于从对话AI和内容创作到数据分析和客户支持等多种应用场景。 主要特点:性能提升:Baichuan4 采用先进算法优化处理效率,实现更快的响应时间和更高质量的互动体验。多语言支持:该模型能够理解和...

baichuan4
Baichuan
31.25K context $14.3/M input tokens $14.3/M output tokens

Moonshot-v1-8k 模型介绍 Moonshot-v1-8k 是一款由 Moonshot AI 开发的大型语言模型,具备卓越的自然语言处理能力。该模型采用了先进的深度学习技术,通过大量文本数据的训练,能够理解和生成自然语言,为用户提供高效、智能的交互体验。 主要特点:强大的语义理解:Moonshot-v1-8k 在语义理解方面表现出色,能够准确解析...

moonshot-v1-8k
Moonshot
7.81K context $1.9/M input tokens $1.9/M output tokens
40% OFF

Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...

Gemini 1.5 Pro
Google
1.91M context $2.5/M input tokens $10/M output tokens $0.003/M image tokens

Amazon Nova Pro 1.0 是一款来自亚马逊的强大多模态模型,专注于为广泛任务提供准确性、速度和成本的结合。截至2024年12月,它在关键基准测试上实现了最先进的性能,包括视觉问答(TextVQA)和视频理解(VATEX)。 Amazon Nova Pro 在处理视觉和文本信息以及分析财务文件方面表现出色。 注意:目前不支持视频输入和工具调用。 ...

Amazon: Nova Pro 1.0
Amazon
292.97K context $0.8/M input tokens $3.2/M output tokens $0.001/M image tokens

Amazon Nova Lite 1.0 是亚马逊推出的一款非常低成本的多模态模型,专注于快速处理图像、视频和文本输入以生成文本输出。Amazon Nova Lite 可以高精度地处理实时客户交互、文档分析和视觉问答任务。 在 300K tokens 的输入上下文下,它可以在单个输入中分析多个图像或长达 30 分钟的视频。 ...

Amazon: Nova Lite 1.0
Amazon
292.97K context $0.06/M input tokens $0.24/M output tokens

Amazon Nova Micro 1.0 是一个仅支持文本的模型,能够以非常低的成本在 Amazon Nova 系列模型中提供最低延迟的响应。它的上下文长度为 128K tokens,并针对速度和成本进行了优化,Amazon Nova Micro 在文本摘要、翻译、内容分类、互动聊天和头脑风暴等任务中表现出色。它具有简单的数学推理和编码能力。 ...

Amazon: Nova Micro 1.0
Amazon
125K context $0.035/M input tokens $0.14/M output tokens $0.053/K image tokens
40% OFF

Gemini 1.5 Flash 是一个基础模型,在视觉理解、分类、摘要以及从图像、音频和视频创建内容等多种多模态任务中表现出色。它擅长处理视觉和文本输入,如照片、文档、信息图和截图。 Gemini 1.5 Flash 旨在应对高容量、高频率的任务,在这些任务中,成本和延迟至关重要。在大多数常见任务中,Flash 的质量与其他 Gemini Pro 模型相当,但成本显著降低。Flash 非常 ...

Gemini Flash 1.5
Google
976.56K context $0.15/M input tokens $0.6/M output tokens $0.04/K image tokens

GPT-4o mini 是 OpenAI 在 GPT-4 Omni 之后推出的最新模型,支持文本和图像输入,并提供文本输出。 作为他们最先进的小型模型,它的价格比其他最近的前沿模型便宜了许多,且比 GPT-3.5 Turbo 便宜超过 60%。它保持了 SOTA 智能,同时在成本效益上显著更高。 GPT-4 ...

GPT-4o mini
OpenAI
125K context $0.15/M input tokens $0.6/M output tokens $0.007/M image tokens
40% OFF

GPT-4o(“o”代表“全能”)是OpenAI最新的AI模型,支持文本和图像输入,并输出文本。它保持了GPT-4 Turbo的智能水平,同时速度是其两倍,成本效益提高了50%。GPT-4o在处理非英语语言和增强视觉能力方面也提供了更好的性能。 为了与其他模型进行基准测试,它曾被暂时称为["im-also-a-good-gpt2-chatbot"] ...

gpt-4o
OpenAI
125K context $2.5/M input tokens $10/M output tokens $0.004/M image tokens
40% OFF

GPT-4o mini 是 OpenAI 在 GPT-4 Omni 之后推出的最新模型,支持文本和图像输入,并提供文本输出。 作为他们最先进的小型模型,它的价格比其他最近的前沿模型便宜了许多,且比 GPT-3.5 Turbo 便宜超过 60%。它保持了 SOTA 智能,同时在成本效益上显著更高。 GPT-4 ...

GPT-4o mini
OpenAI
125K context $0.15/M input tokens $0.6/M output tokens $0.007/M image tokens

PaLM 2 针对帮助解决代码相关问题的聊天机器人对话进行了微调。 ...

Google: PaLM 2 Code Chat 32k
Google
31.99K context $1/M input tokens $2/M output tokens

Yi Large 模型由 01.AI 设计,考虑了以下用例:知识搜索、数据分类、人类聊天机器人和客户服务。 它以其多语言能力而脱颖而出,特别是在西班牙语、中文、日语、德语和法语方面。 查看 发布公告 以了解更多信息。 ...

01.AI: Yi Large
01 ai
32K context $3/M input tokens $3/M output tokens

这是 Mistral AI 的旗舰模型,Mistral Large 2(版本 mistral-large-2407)。它是一个专有的可用权重模型,擅长推理、代码、JSON、聊天等。请在 这里 阅读发布公告。 它支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在 ...

Mistral Large 2411
MistralAI
125K context $2/M input tokens $6/M output tokens

这是 Mistral AI 的旗舰模型,Mistral Large 2(版本 mistral-large-2407)。它是一个专有的可用权重模型,擅长推理、代码、JSON、聊天等。请在 这里 阅读发布公告。 它支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在 ...

Mistral Large 2407
MistralAI
125K context $2/M input tokens $6/M output tokens

Pixtral Large 是一个 124B 开放权重的多模态模型,基于 Mistral Large 2 构建。该模型能够理解文档、图表和自然图像。 该模型在 Mistral Research License (MRL) 下提供,供研究和教育使用;并在 Mistral Commercial License 下提供,供实验、测试和 ...

Mistral: Pixtral Large 2411
MistralAI
125K context $2/M input tokens $6/M output tokens $0.003/M image tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个正常的离线 LLM,但该模型的 在线版本 具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 70B
Perplexity
128K context $1/M input tokens $1/M output tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个普通的离线 LLM,但该模型的 在线版本 具有互联网访问权限。 ...

Perplexity: Llama 3.1 Sonar 8B
Perplexity
128K context $0.2/M input tokens $0.2/M output tokens

OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的微调——这是一种受离线强化学习启发的策略。它在混合质量的数据上进行训练,没有偏好标签。对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。 对于在 Llama 8B 上微调的 OpenChat,请查看 [Ope...

OpenChat 3.5 7B
Openchat
8K context $0.055/M input tokens $0.055/M output tokens

一个较旧的 GPT-3.5 Turbo 模型,具备改进的指令跟随能力、JSON 模式、可重复的输出、并行函数调用等功能。训练数据:截至 2021 年 9 月。 ...

OpenAI: GPT-3.5 Turbo 16k (older v1106)
OpenAI
16K context $1/M input tokens $2/M output tokens

该安全模型具有8B参数,并基于Llama 3系列。与其前身LlamaGuard 1一样,它可以进行提示和响应分类。 LlamaGuard 2的功能类似于普通的LLM,生成文本以指示给定的输入/输出是否安全。如果被认为不安全,它还会分享违反的内容类别。 为了获得最佳效果,请使用原始提示输入或` ...

Meta: LlamaGuard 2 8B
Meta Llama
8K context $0.18/M input tokens $0.18/M output tokens

成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。 ...

Mistral Small
MistralAI
31.25K context $0.2/M input tokens $0.6/M output tokens

Google 的旗舰文本生成模型。旨在处理自然语言任务、多轮文本和代码聊天,以及代码生成。 请参阅来自 Deepmind 的基准测试和提示指南。 使用 Gemini 需遵循 Google 的 Gemini 使用条款。 ...

Google: Gemini Pro 1.0
Google
31.99K context $0.5/M input tokens $1.5/M output tokens $0.003/M image tokens

一个大型 LLM 通过将两个微调的 Llama 70B 模型合并成一个 120B 模型而创建。结合了 Xwin 和 Euryale。 致谢@chargoddard 开发了用于合并模型的框架 - mergekit。 [@Undi95](h...

Goliath 120B
Alpindale
6K context $9.375/M input tokens $9.375/M output tokens

Google的旗舰多模态模型,支持在文本或聊天提示中使用图像和视频,以获得文本或代码响应。 请参阅Deepmind提供的基准和提示指南。 使用Gemini需遵循Google的Gemini使用条款。 #multimodal ...

Google: Gemini Pro Vision 1.0
Google
16K context $0.5/M input tokens $1.5/M output tokens $0.003/M image tokens

Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力、更加出色的角色扮演、推理、多轮对话、长上下文连贯性以及各方面的改进。 Hermes 3 405B 是 Llama-3.1 405B 基础模型的前沿级全参数微调,专注于将 LLM 与用户对齐,赋予最终用户强大的引导能力和控制权。 Hermes 3 系列在 Hermes 2 的能力基础上进行了构建和 ...

Nous: Hermes 3 405B Instruct (free)
NousreSearch
128K context $0 input tokens $0 output tokens

Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...

Google: Gemini Pro 1.5
Google
1.91M context $1.25/M input tokens $5/M output tokens $0.003/M image tokens

DBRX 是由 Databricks 开发的新开源大语言模型。在 132B 的参数量下,它在语言理解、编程、数学和逻辑的标准行业基准测试中超越了现有的开源 LLM,如 Llama 2 70B 和 Mixtral-8x7b。 它采用了细粒度的专家混合(MoE)架构。任何输入上都有 36B 参数处于激活状态。它在 12T 的文本和代码数据上进行 ...

Databricks: DBRX 132B Instruct
Databricks
32K context $1.08/M input tokens $1.08/M output tokens

The Jamba-Instruct model, introduced by AI21 Labs, is an instruction-tuned variant of their hybrid SSM-Transformer Jamba model, specifically optimized for enterprise applications.256K Context Win...

AI21: Jamba Instruct
Ai21
250K context $0.5/M input tokens $0.7/M output tokens

Euryale 70B v2.1 是一个专注于创意角色扮演的模型,来自 Sao10k。更好的提示遵循性。 更好的解剖学/空间意识。 更好地适应独特和自定义的格式/回复格式。 非常有创意,很多独特的风格。 在角色扮演过程中没有限制。...

Llama 3 Euryale 70B v2.1
Rifx.Online
8K context $0.35/M input tokens $0.4/M output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于一个截止日期为 2023 年 10 月的离线数据集。 ...

Phi-3 Mini 128K Instruct
Microsoft Azure
125K context $0.1/M input tokens $0.1/M output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下文长度,请尝试 [Phi-3 ...

Phi-3 Medium 128K Instruct
Microsoft Azure
125K context $1/M input tokens $1/M output tokens

Gemini 1.5 Flash 是一个基础模型,在视觉理解、分类、摘要以及从图像、音频和视频创建内容等多种多模态任务中表现出色。它擅长处理视觉和文本输入,如照片、文档、信息图和截图。 Gemini 1.5 Flash 旨在应对高容量、高频率的任务,在这些任务中,成本和延迟至关重要。在大多数常见任务中,Flash 的质量与其他 Gemini Pro 模型相当,但成本显著降低。Flash 非常适 ...

Google: Gemini Flash 1.5
Google
976.56K context $0.075/M input tokens $0.3/M output tokens $0.04/K image tokens

Command 是一个遵循指令的对话模型,能够以更高的质量、更可靠地执行语言任务,并且比我们的基础生成模型具有更长的上下文。 使用此模型须遵循 Cohere 的 Acceptable Use Policy. ...

Cohere: Command
Cohere
4K context $0.95/M input tokens $1.9/M output tokens

Command-R 是一个 35B 参数模型,能够以更高的质量、更可靠的方式以及更长的上下文执行对话语言任务。它可以用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。 阅读发布帖子 here。 使用此模型须遵循 Cohere 的 [Acceptable Use Policy](https://do ...

Cohere: Command R
Cohere
125K context $0.475/M input tokens $1.425/M output tokens
FREE

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct (free)
Qwen
32K context $0 input tokens $0 output tokens

Gemma 2 27B by Google 是一个开放模型,基于创建 Gemini models 所使用的相同研究和技术构建。 Gemma 模型非常适合各种文本生成任务,包括问答、摘要和推理。 有关更多详细信息,请参阅 [launch announcement](https://blog.google/technology/developers/goo ...

Google: Gemma 2 27B
Google
8K context $0.27/M input tokens $0.27/M output tokens

来自Goliath的制造商,Magnum 72B是新系列模型中的第一款,旨在达到Claude 3模型的散文质量,特别是Opus和Sonnet。 该模型基于Qwen2 72B,并使用5500万标记的高度 ...

Magnum 72B
Alpindale
16K context $3.75/M input tokens $4.5/M output tokens
FREE

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B (free)
Google
8K context $0 input tokens $0 output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B
Google
8K context $0.06/M input tokens $0.06/M output tokens

A 12B 参数模型,具有 128k 令牌上下文长度,由 Mistral 与 NVIDIA 合作构建。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在 Apache 2.0 许可证下发布。 ...

Mistral: Mistral Nemo
MistralAI
125K context $0.13/M input tokens $0.13/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Mistral AI 的第一个图像到文本模型。根据他们的传统,其权重通过 torrent 发布: https://x.com/mistralai/status/1833758285167722836 ...

Mistral: Pixtral 12B
MistralAI
4K context $0.1/M input tokens $0.1/M output tokens $0.144/K image tokens

Phi-3.5 模型是轻量级的、最先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公开可用网站数据,重点关注高质量和推理密集特性。Phi-3.5 Mini 使用 3.8B 参数,是一个密集的仅解码器变换器模型,使用与 Phi-3 Mini 相同的分词器。 这些模型经过严格的增 ...

Phi-3.5 Mini 128K Instruct
Microsoft Azure
125K context $0.1/M input tokens $0.1/M output tokens

动态模型持续更新至 ChatGPT 中的当前版本 GPT-4o。旨在用于研究和评估。 注意:该模型目前处于实验阶段,不适合生产使用场景,可能会受到严格的速率限制。 ...

OpenAI: ChatGPT-4o
OpenAI
125K context $5/M input tokens $15/M output tokens $0.007/M image tokens

Llama 3.2 1B 是一个拥有 10 亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的体积使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可进行微调以支持更多,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样的多语言环境中运行,而不需要大型模型的高计算需求。 点击这里 ...

Meta: Llama 3.2 1B Instruct
Meta Llama
128K context $0.01/M input tokens $0.02/M output tokens

QwQ-32B-Preview 是一个专注于 AI 推理能力的实验研究模型,由 Qwen 团队开发。作为预览版本,它展示了有前景的分析能力,但也存在几个重要的限制:语言混合和代码切换:模型可能会意外地混合语言或在语言之间切换,影响响应的清晰度。 递归推理循环:模型可能会进入循环推理模式,导致响应冗长而没有明确的答案。 安全和伦理考虑:模型需要增强安全...

Qwen: QwQ 32B Preview
Qwen
32K context $0.15/M input tokens $0.6/M output tokens

Meta最新发布的模型系列(Llama 3.1)推出了多种尺寸和版本。这是基础的405B预训练版本。 与领先的闭源模型相比,它在人工评估中表现出色。 使用此模型须遵循Meta的可接受使用政策。 ...

Meta: Llama 3.1 405B (base)
Meta Llama
128K context $2/M input tokens $2/M output tokens
FREE

Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...

Google: Gemini Pro 1.5 Experimental
Google
1.91M context $0 input tokens $0 output tokens $0.003/M image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Claude 3 Opus 是 Anthropic 针对高度复杂任务推出的最强大模型。它具有顶级的性能、智能、流畅性和理解能力。 查看发布公告和基准测试结果 这里 #multimodal ...

Anthropic: Claude 3 Opus
Anthropic
195.31K context $15/M input tokens $75/M output tokens $0.024/M image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Qwen2 VL 7B 是来自 Qwen 团队的多模态 LLM,具有以下关键增强功能:对各种分辨率和比例的图像的最先进理解:Qwen2-VL 在视觉理解基准测试中取得了最先进的表现,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等。理解超过 20 分钟的视频:Qwen2-VL 能够理解超过 20 分钟的视频,以实现高质量的视频问答、对话、内容创作等。...

Qwen2-VL 7B Instruct
Qwen
32K context $0.1/M input tokens $0.1/M output tokens $0.144/K image tokens

OpenAI 最新和最强大的模型系列,o1 旨在在响应之前花更多时间思考。 o1 模型针对数学、科学、编程和其他 STEM 相关任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。了解更多信息请查看 launch announcement。 注意:该模型目前处于实验阶段,不适合生产使用,并且可能会受到严重的速率限制。 ...

OpenAI: o1-preview
OpenAI
125K context $15/M input tokens $60/M output tokens

Jamba 1.5 Mini 是世界上首个生产级的基于 Mamba 的模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效能。 它支持 9 种语言,能够处理各种写作和分析任务,表现与类似的小模型相当或更好。 该模型使用更少的计算机内存,并且在处理较长文本时比以前的设计更快。 阅读他们的 [announcement](https://www.ai21.c ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens

Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力、更加出色的角色扮演、推理、多轮对话、长上下文连贯性以及各方面的提升。 Hermes 3 70B 是一个具有竞争力的微调版本,甚至可以说优于 [Llama-3.1 70B 基础模型](/meta-llama/l ...

Nous: Hermes 3 70B Instruct
NousreSearch
128K context $0.4/M input tokens $0.4/M output tokens

Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力、更加出色的角色扮演、推理、多轮对话、长上下文连贯性以及各方面的改进。 Hermes 3 405B 是 Llama-3.1 405B 基础模型的前沿级全参数微调,专注于将 LLM 与用户对齐,赋予最终用户强大的引导能力和控制权。 Hermes 3 系列在 Hermes 2 的能力基础上进行了构建和扩 ...

Nous: Hermes 3 405B Instruct
NousreSearch
128K context $1.79/M input tokens $2.49/M output tokens
FREE

Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的差距。该模型在一个庞大的图像-文本对数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉-语言 AI 应用的行业的理想解决方案,例如内容创作、A ...

Meta: Llama 3.2 11B Vision Instruct (free)
Meta Llama
128K context $0 input tokens $0 output tokens $0.079/K image tokens

Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的差距。该模型在一个庞大的图像-文本对数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉-语言 AI 应用的行业的理想解决方案,例如内容创作、A ...

Meta: Llama 3.2 11B Vision Instruct
Meta Llama
128K context $0.055/M input tokens $0.055/M output tokens $0.079/K image tokens

Lumimaid v0.2 8B 是对 Llama 3.1 8B 的微调,与 Lumimaid v0.1 相比,在数据集方面有了“巨大的提升”。不规范的聊天输出已被清除。 使用此模型需遵循 Meta 的可接受使用政策。 ...

Lumimaid v0.2 8B
Meta Llama
128K context $0.188/M input tokens $1.125/M output tokens

GPT-4o(“o”代表“全能”)是OpenAI最新的AI模型,支持文本和图像输入,并输出文本。它保持了GPT-4 Turbo的智能水平,同时速度是其两倍,成本效益提高了50%。GPT-4o在处理非英语语言和增强视觉能力方面也提供了更好的性能。 为了与其他模型进行基准测试,它曾被暂时称为["im-also-a-good-gpt2-chatbot"] ...

GPT-4o
OpenAI
125K context $2.5/M input tokens $10/M output tokens $0.004/M image tokens

GPT-4o(“o”代表“全能”)是OpenAI最新的AI模型,支持文本和图像输入,并输出文本。它保持了GPT-4 Turbo的智能水平,同时速度是其两倍,成本效益提高了50%。GPT-4o在处理非英语语言和增强视觉能力方面也提供了更好的性能。 为了与其他模型进行基准测试,它曾被暂时称为["im-also-a-good-gpt2-chatbot"] ...

OpenAI: GPT-4o
OpenAI
125K context $2.5/M input tokens $10/M output tokens $0.004/M image tokens

GPT-4o mini 是 OpenAI 在 GPT-4 Omni 之后推出的最新模型,支持文本和图像输入,并提供文本输出。 作为他们最先进的小型模型,它的价格比其他最近的前沿模型便宜了许多,且比 GPT-3.5 Turbo 便宜超过 60%。它保持了 SOTA 智能,同时在成本效益上显著更高。 GPT-4 ...

OpenAI: GPT-4o-mini
OpenAI
125K context $0.15/M input tokens $0.6/M output tokens $0.007/M image tokens

Gemini 1.5 Flash-8B 针对速度和效率进行了优化,在聊天、转录和翻译等小提示任务中提供了增强的性能。由于延迟降低,它在实时和大规模操作中非常有效。该模型专注于具有成本效益的解决方案,同时保持高质量的结果。 [点击这里了解更多关于该模型的信息](https://developers.googleblog.com/en/gemini-15-flash-8b-is-now-gener ...

Google: Gemini 1.5 Flash-8B
Google
976.56K context $0.037/M input tokens $0.15/M output tokens

Liquid的40.3B专家混合模型(MoE)。Liquid基础模型(LFMs)是基于动态系统构建的大型神经网络。 LFMs是通用的AI模型,可以用于建模任何类型的序列数据,包括视频、音频、文本、时间序列和信号。 请查看发布公告以获取基准测试和更多信息。 _这些是免费的、速率限制的端点,适 ...

Liquid: LFM 40B MoE (free)
Liquid
8K context $0 input tokens $0 output tokens

Qwen2.5 7B 是 Qwen 大型语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学方面的能力大幅提升,这得益于我们在这些领域的专业专家模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出(尤其是 JSON)方面有显著改进。对系统提示的多样性更具韧性,增强了角色扮演的实...

Qwen2.5 7B Instruct
Qwen
128K context $0.27/M input tokens $0.27/M output tokens

Rocinante 12B 旨在提供引人入胜的叙事和丰富的散文。 早期测试者报告称:词汇量扩大,独特而富有表现力的用词选择 创造力增强,能够创作生动的叙述 冒险满满且引人入胜的故事...

Rocinante 12B
Thedrummer
32K context $0.25/M input tokens $0.5/M output tokens

Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,优化用于高级自然语言处理任务,如对话生成、推理和摘要。该模型采用最新的 transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并且可以适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语言环境中进行文本生成时的准确 ...

Meta: Llama 3.2 3B Instruct
Meta Llama
128K context $0.03/M input tokens $0.05/M output tokens
FREE

Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,优化用于高级自然语言处理任务,如对话生成、推理和摘要。该模型采用最新的 transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并且可以适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语言环境中进行文本生成时的准确 ...

Meta: Llama 3.2 3B Instruct (free)
Meta Llama
128K context $0 input tokens $0 output tokens

Qwen2 VL 72B 是来自 Qwen 团队的多模态 LLM,具有以下关键增强功能:SoTA 对各种分辨率和比例图像的理解:Qwen2-VL 在视觉理解基准测试中实现了最先进的性能,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等。理解超过 20 分钟的视频:Qwen2-VL 能够理解超过 20 分钟的视频,以进行高质量的视频问答、对话、内容创作...

Qwen2-VL 72B Instruct
Qwen
32K context $0.4/M input tokens $0.4/M output tokens $0.578/K image tokens

Qwen2.5 72B 是 Qwen 大型语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学方面大幅提升了能力,这得益于我们在这些领域的专业专家模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出(特别是 JSON)方面有显著改进。对系统提示的多样性更具韧性,增强了角色扮演的...

Qwen2.5 72B Instruct
Qwen
128K context $0.35/M input tokens $0.4/M output tokens
FREE

Llama 3.2 1B 是一个拥有 10 亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的体积使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可进行微调以支持更多,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样的多语言环境中运行,而不需要大型模型的高计算需求。 点击这里 ...

Meta: Llama 3.2 1B Instruct (free)
Meta Llama
128K context $0 input tokens $0 output tokens

The Llama 90B Vision 模型是一个顶尖的、拥有 90 亿参数的多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,专为处理最苛刻的基于图像的 AI 任务而设计。 该模型非常适合需要尖端多模态 AI 能力的行业,特别是那些处理复杂实时视觉和文本分析 ...

Meta: Llama 3.2 90B Vision Instruct
Meta Llama
128K context $0.35/M input tokens $0.4/M output tokens $0.506/K image tokens

OpenAI 最新和最强大的模型系列,o1 旨在在响应之前花更多时间思考。 o1 模型针对数学、科学、编程和其他 STEM 相关任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅 发布公告。 注意:该模型目前处于实验阶段,不适合生产使用,可能会受到严格的速率限制。 ...

OpenAI: o1-mini (2024-09-12)
OpenAI
125K context $3/M input tokens $12/M output tokens

谷歌的 Gemini 1.5 Pro 实验版本。 ...

Google: LearnLM 1.5 Pro Experimental (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Mistral Large 2 2411 是 Mistral Large 2 的更新版本,与 Pixtral Large 2411 一起发布。 它流利地支持英语、法语、西班牙语、德语和意大利语,具有高语法准确性,并且其长上下文窗口允许从大型文档中精 ...

Mistral Large 2411
Rifx.Online
125K context $2/M input tokens $6/M output tokens

ERNIE Bot 概述 关键能力和使用案例:进行互动对话,回答问题,并协助创意任务。 促进高效的信息检索和知识生成。重要特性和改进:知识增强: 利用海量数据和大规模知识提高理解能力。 检索增强: 提升有效检索相关信息的能力。 对话增强: 先进的对话能力,使用户能够进行有意义的互动。**技术 ...

ERNIE-Bot-4.0
Ernie bot 4.0
8K context $16.44/M input tokens $16.44/M output tokens

开发者/公司: 百度研究 关键能力与应用场景: ERNIE-Speed-128K 在实时应用中表现出色,利用知识整合增强语义理解,适用于机器翻译、文本摘要、情感分析和智能问答系统。 特点与改进:知识增强: 集成全面的知识图谱。 模型压缩: 采用剪枝和量化技术提高效率。 动态推理: 根据输入特征动态调整计...

ERNIE-Speed-128K
Ernie
128K context $0 input tokens $0 output tokens

关键能力和使用案例:设计用于资源受限的环境,如移动设备和边缘设备。 适用于智能助手、语音识别以及智能家居中的本地处理。重要特性和改进:轻量级设计: 优化结构,减少参数以降低计算和存储需求。 知识蒸馏: 将大模型的知识转移,以增强小参数模型的性能。 多任务学习: 支持多种自然语言处理任务,包括文本分类、...

ERNIE-Lite-8K:free
Ernie
8K context $0 input tokens $0 output tokens

开发者/公司: 百度 概述: ERNIE Bot Turbo 是 ERNIE Bot 的增强版本,提供扩展的功能,支持 7K 输入 + 1K 输出。它包括系统设置和新的推理参数。 ERNIE Bot 特性:文学创作: 总结核心内容并为文学作品建议续写角度;回答有关衍生品的事实问题。 商业文案: 创建富有创意和吸引力...

ERNIE-Bot-turbo
Ernie
8K context $1.65/M input tokens $1.65/M output tokens

开发者/公司: 百度研究 关键能力与应用案例: ERNIE-4.0-8K 在自然语言处理 (NLP) 中具有重要价值,适用于搜索引擎、智能客服、内容推荐和情感分析。 特点与改进:多任务学习: 支持文本分类、情感分析和命名实体识别等任务。 知识增强: 融入知识图谱以提升特定领域的表现。 跨语言能力: 有效...

ERNIE-4.0-8K
Ernie
8K context $5.48/M input tokens $16.44/M output tokens

开发者/公司: 百度团队 概述: ERNIE-Tiny-8K 是一个轻量级的预训练语言模型,专为中文自然语言处理任务设计,结合了小巧的体积和快速的推理能力,同时具备高性能。 特点与优势:轻量级设计: 减少参数和层数,实现更小的体积和更快的推理,同时保持性能。 知识增强: 继承了 ERNIE 系列的知识整合,提升...

ERNIE-Tiny-8K
Ernie
8K context $0 input tokens $0 output tokens

GLM-4-Flash 模型介绍 关键能力和主要使用案例处理多轮对话、网络搜索和工具调用。 支持长文本推理,上下文长度可达 128K,输出长度可达 4K。 支持 26 种语言的多语言功能,包括中文、英语、日语、韩语和德语。最重要的特性和改进通过自适应权重量化、并行处理、批处理和推测采样优化速度。 提供微调功能,以适应...

glm-4-flash
ChatGLM
125K context $0.01/M input tokens $0.01/M output tokens

GLM-4-Plus 模型介绍 关键能力和主要使用案例语言理解:在语言理解、指令执行和长文本处理方面具有先进能力。 多模态支持:包括文本到图像生成模型(CogView-3-Plus)、图像/视频理解模型(GLM-4V-Plus)和视频生成模型(CogVideoX)。 跨模态交互:支持文本、音频和视频模态,如在青眼...

glm-4-plus
ChatGLM
125K context $7/M input tokens $7/M output tokens

GLM-4 Long GLM-4 Long 是一款先进的语言模型,专为扩展上下文处理而设计,非常适合需要对长文档进行全面文本分析和生成的应用。 关键能力扩展上下文理解:能够处理显著更长的文本而不失去连贯性。 多功能应用:适用于内容创作、摘要、翻译和复杂问题解决。重要特性增强记忆机制:改进了对大量输入数据的...

GLM-4 Long
ChatGLM
976.56K context $0.14/M input tokens $0.14/M output tokens

Inferor 是顶级角色扮演模型的合并体,专注于沉浸式叙事和故事讲述。 该模型使用 Model Stock 合并方法,基于 anthracite-org/magnum-v4-12b 进行 ...

Mistral Nemo Inferor 12B
Infermatic
31.25K context $0.25/M input tokens $0.5/M output tokens

Qwen2.5-Coder 是最新一系列针对代码的 Qwen 大型语言模型(以前称为 CodeQwen)。Qwen2.5-Coder 在 CodeQwen1.5 的基础上带来了以下改进:在 代码生成、代码推理 和 代码修复 方面有显著提升。 为现实世界应用(如 代码代理)提供了更全面的基础。不仅增强了编码能力,还保持了其在数...

Qwen2.5 Coder 32B Instruct
Qwen
32K context $0.18/M input tokens $0.18/M output tokens

SorcererLM 是一个先进的 RP 和故事讲述模型,作为一个低秩 16 位 LoRA 在 WizardLM-2-8x22B 上进行微调。先进的推理和情感智能,实现引人入胜和沉浸式的互动 生动的写作能力,增强了空间和上下文意识 增强的叙事深度,促进创造性和动态的故事讲述...

Sorcererlm 8x22b
Raifle
15.63K context $4.5/M input tokens $4.5/M output tokens

一个角色扮演/故事创作专用模型,针对合成数据和自然数据的混合进行全参数微调的Qwen2.5-32B。 它使用Celeste 70B 0.1数据混合,极大地扩展了数据,提高了模型的多样性、创造力和“风味”。 ...

Eva Qwen2.5 32B
Eva unit 01
31.25K context $0.5/M input tokens $0.5/M output tokens

UnslopNemo v4.1 是来自 Rocinante 创作者的最新作品,旨在用于冒险写作和角色扮演场景。 ...

Unslopnemo 12b
Thedrummer
31.25K context $0.5/M input tokens $0.5/M output tokens

Claude 3.5 Haiku 在所有技能领域中都进行了增强,包括编码、工具使用和推理。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [he ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Rifx.Online
195.31K context $1/M input tokens $5/M output tokens

Claude 3.5 Haiku 特性提供了更高的速度、编码准确性和工具使用能力。旨在在实时应用中表现出色,它提供了快速的响应时间,这对于动态任务(如聊天互动和即时编码建议)至关重要。 这使其非常适合需要速度和精度的环境,例如软件开发、客户服务机器人和数据管理系统。 此模型当前指向 [Claude 3.5 Haiku (2024-10-22)](/anthropi ...

Anthropic: Claude 3.5 Haiku
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Lumimaid v0.2 70B 是对 Llama 3.1 70B 的微调,与 Lumimaid v0.1 相比,在数据集方面有了“巨大的提升”。不合格的聊天输出已被清除。 使用此模型须遵循 [Meta 的可接受使用政策](https://llama.meta.com/llama3/use ...

Lumimaid v0.2 70B
Neversleep
128K context $3.375/M input tokens $4.5/M output tokens

这是一个系列模型,旨在复制Claude 3模型的散文质量,特别是Sonnet和Opus。 该模型是在[Qwen2.5 72B]s的基础上进行微调的。 ...

Magnum v4 72B
Anthracite org
32K context $1.875/M input tokens $2.25/M output tokens

Grok Beta 是 xAI 的实验性语言模型,具有最先进的推理能力,最适合复杂和多步骤的用例。 它是 Grok 2 的继任者,具有增强的上下文长度。 ...

xAI: Grok Beta
X ai
128K context $5/M input tokens $15/M output tokens

Ministral 3B 是一个针对设备和边缘计算优化的 3B 参数模型。它在知识、常识推理和函数调用方面表现出色,在大多数基准测试中超越了像 Mistral 7B 这样的更大模型。支持最长 128k 的上下文长度,非常适合高效推理的代理工作流和专业任务的协调。 ...

Ministral 3B
Mistralai
125K context $0.04/M input tokens $0.04/M output tokens

Qwen2.5 7B 是 Qwen 大语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学方面的能力大幅提升,这得益于我们在这些领域的专业模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出,特别是 JSON 方面有显著改进。对系统提示的多样性更具韧...

Qwen2.5 7B Instruct
Qwen
128K context $0.27/M input tokens $0.27/M output tokens

NVIDIA的Llama 3.1 Nemotron 70B是一个旨在生成精确和有用响应的语言模型。利用Llama 3.1 70B架构和基于人类反馈的强化学习(RLHF),它在自动对齐基准测试中表现出色。该模型专为需要高准确性以提供帮助和生成响应的应用而设计,适合处理多个领域的多样 ...

Nvidia: Llama 3.1 Nemotron 70B Instruct
Nvidia
128K context $0.35/M input tokens $0.4/M output tokens

Gemini 1.5 Flash-8B 针对速度和效率进行了优化,在聊天、转录和翻译等小提示任务中提供了增强的性能。通过减少延迟,它在实时和大规模操作中非常有效。该模型专注于成本效益解决方案,同时保持高质量的结果。 [点击此处了解更多关于此模型的信息](https://developers.googleblog.com/en/gemini-15-flash-8b-i ...

Google: Gemini 1.5 Flash-8B
Google
976.56K context $0.037/M input tokens $0.15/M output tokens

一个专注于角色扮演和创意写作的模型,该模型基于 Qwen2.5-14B,经过合成数据和自然数据的混合微调。 它在 1.5M 令牌的角色扮演数据上进行训练,并在 1.5M 令牌的合成数据上进行微调。 ...

EVA Qwen2.5 14B
Eva unit 01
32K context $0.25/M input tokens $0.5/M output tokens

Liquid的40.3B专家混合(MoE)模型。Liquid基础模型(LFMs)是基于动态系统构建的大型神经网络。 LFMs是通用的AI模型,可以用于建模任何类型的序列数据,包括视频、音频、文本、时间序列和信号。 有关基准和更多信息,请参见发布公告。 ...

Liquid: LFM 40B MoE
Liquid
32K context $1/M input tokens $2/M output tokens

来自Goliath的制造商,Magnum 72B是第七个旨在达到Claude 3模型的散文质量的模型系列,特别是Opus和Sonnet。 该模型基于Qwen2 72B,并使 ...

Magnum v2 72B
Anthracite org
32K context $3.75/M input tokens $4.5/M output tokens

Rocinante 12B 旨在提供引人入胜的叙事和丰富的散文。 早期测试者报告:词汇量扩展,独特且富有表现力的用词选择 创造力增强,能够生动叙述 充满冒险和引人入胜的故事...

Rocinante 12B
Thedrummer
32K context $0.25/M input tokens $0.5/M output tokens

Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的鸿沟。该模型在大量图像-文本对的数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉语言 AI 应用的行业的理想解决 ...

Meta: Llama 3.2 11B Vision Instruct
Meta llama
128K context $0.055/M input tokens $0.055/M output tokens $0.079/K image tokens

Llama 3.2 1B 是一个拥有10亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的规模使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可针对更多语言进行微调,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样化的多语言环境中运行,而不需要大型模 ...

Meta: Llama 3.2 1B Instruct
Meta llama
128K context $0.01/M input tokens $0.02/M output tokens

Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,针对对话生成、推理和摘要等高级自然语言处理任务进行了优化。它采用最新的 transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并且可以适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语 ...

Meta: Llama 3.2 3B Instruct
Meta llama
128K context $0.03/M input tokens $0.05/M output tokens

Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,针对对话生成、推理和摘要等高级自然语言处理任务进行了优化。该模型采用最新的 Transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并可适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语 ...

Meta: Llama 3.2 3B Instruct (free)
Rifx.Online
4K context $0 input tokens $0 output tokens

Llama 90B Vision模型是一款顶级的90亿参数多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,专为处理最苛刻的基于图像的AI任务而设计。 此模型非常适合需要尖端多模态AI能力的行业,尤其是那些处理复杂实时视觉和文本分析的 ...

Meta: Llama 3.2 90B Vision Instruct
Meta llama
128K context $0.35/M input tokens $0.4/M output tokens $0.506/K image tokens

The Llama 90B Vision模型是一款顶级的90亿参数多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,旨在处理最苛刻的基于图像的AI任务。 该模型非常适合需要尖端多模态AI能力的行业,特别是那些处理复杂实时视觉和文本分析 ...

Meta: Llama 3.2 90B Vision Instruct (free)
Rifx.Online
4K context $0 input tokens $0 output tokens

Qwen2.5 72B 是 Qwen 大型语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学能力上有了很大提升,这得益于我们在这些领域的专业专家模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出(特别是 JSON)方面有显著改进。对系统提示的多样...

Qwen2.5 72B Instruct
Qwen
128K context $0.35/M input tokens $0.4/M output tokens

Qwen2 VL 72B 是来自 Qwen Team 的多模态 LLM,具有以下关键增强功能:对各种分辨率和比例图像的最先进理解:Qwen2-VL 在视觉理解基准测试中实现了最先进的性能,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等。理解超过 20 分钟的视频:Qwen2-VL 可以理解超过 20 分钟的视频,以进行高...

Qwen2-VL 72B Instruct
Qwen
32K context $0.4/M input tokens $0.4/M output tokens $0.578/K image tokens

Lumimaid v0.2 8B 是对 Llama 3.1 8B 的微调,相较于 Lumimaid v0.1,数据集有了“巨大的提升”。不当的聊天输出已被清除。 使用此模型须遵循 [Meta 的可接受使用政策](https://llama.meta.com/llama3/use-policy/ ...

Lumimaid v0.2 8B
Neversleep
128K context $0.188/M input tokens $1.125/M output tokens

OpenAI最新且最强大的模型系列o1旨在在响应之前花更多时间思考。 o1模型经过优化,适用于数学、科学、编程及其他STEM相关任务。它们在物理、化学和生物学的基准测试中始终展现出博士级的准确性。了解更多信息,请查看发布公告。 注意:该模型目前处于实验阶段,不适合生产使用,并可能受到严格的速率限制。 ...

OpenAI: o1-mini
Openai
125K context $3/M input tokens $12/M output tokens

OpenAI最新且最强大的模型系列o1旨在在响应之前花更多时间思考。 o1模型经过优化,适用于数学、科学、编程和其他STEM相关任务。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅发布公告。 注意:该模型目前处于实验阶段,不适合生产使用案例,并且可能会受到严格的速率限制。 ...

OpenAI: o1-preview
Openai
125K context $15/M input tokens $60/M output tokens

Mistral AI 的第一个图像到文本模型。根据他们的传统,其权重通过 torrent 发布: https://x.com/mistralai/status/1833758285167722836 ...

Mistral: Pixtral 12B
Mistralai
4K context $0.1/M input tokens $0.1/M output tokens $0.144/K image tokens

command-r-08-2024 是 Command R 的更新,提升了多语言检索增强生成 (RAG) 和工具使用的性能。更广泛地说,它在数学、代码和推理方面表现更佳,并且与之前的更大版本 Command R+ 模型具有竞争力。 阅读发布帖子 [这里](https://docs.cohere.com/changelog/c ...

Cohere: Command R (08-2024)
Cohere
125K context $0.143/M input tokens $0.57/M output tokens

Gemini 1.5 Flash 8B Experimental 是 Gemini 1.5 Flash 模型的实验性 8B 参数版本。 使用 Gemini 需遵循 Google 的 Gemini 使用条款。 #multimodal 注意:该模型目 ...

Google: Gemini Flash 8B 1.5 Experimental
Google
976.56K context $0 input tokens $0 output tokens

Euryale L3.1 70B v2.2 是一个专注于创意角色扮演的模型,来自 Sao10k。它是 Euryale L3 70B v2.1 的继任者。 ...

Llama 3.1 Euryale 70B v2.2
Sao10k
8K context $0.35/M input tokens $0.4/M output tokens

Qwen2 VL 7B 是来自 Qwen 团队的多模态 LLM,具有以下关键增强功能:对各种分辨率和比例的图像的最先进理解:Qwen2-VL 在视觉理解基准测试中实现了最先进的性能,包括 MathVista、DocVQA、RealWorldQA、MTVQA 等。理解超过 20 分钟的视频:Qwen2-VL 能够理解超过 20 分钟的视频,以便进行高质量...

Qwen2-VL 7B Instruct
Qwen
32K context $0.1/M input tokens $0.1/M output tokens $0.144/K image tokens

Jamba 1.5 Mini 是世界上首个生产级 Mamba 基础模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效率。 它支持 9 种语言,并能够处理各种写作和分析任务,效果与类似的小模型相当或更好。 该模型比以前的设计使用更少的计算机内存,并且在处理较长文本时速度更快。 阅读他们的 [公告](https://www.a ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens

Phi-3.5 模型是轻量级的、先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公共网站数据,重点关注高质量和推理密集的特性。Phi-3.5 Mini 使用 3.8B 参数,是一种仅解码的稠密变换器模型,使用与 Phi-3 Mini 相同的分词器。 ...

Phi-3.5 Mini 128K Instruct
Microsoft
125K context $0.1/M input tokens $0.1/M output tokens

Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力,更好的角色扮演,推理,多轮对话,长上下文连贯性,以及各方面的改进。 Hermes 3 70B 是一个具有竞争力的微调版本,甚至可以说是 [Llama-3.1 70B 基础模型](/ ...

Nous: Hermes 3 70B Instruct
Nousresearch
128K context $0.4/M input tokens $0.4/M output tokens

Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力、显著更好的角色扮演、推理、多轮对话、长上下文一致性以及各方面的提升。 Hermes 3 405B 是 Llama-3.1 405B 基础模型的前沿级全参数微调,专注于将 LLM 与用户对齐,赋予终端用户强大的引导能力和控制权。 Hermes 3 系列在 Hermes 2 ...

Nous: Hermes 3 405B Instruct
Nousresearch
128K context $1.79/M input tokens $2.49/M output tokens

动态模型持续更新到 ChatGPT 中的当前版本 GPT-4o。旨在用于研究和评估。 注意:此模型目前处于实验阶段,不适合生产使用,并可能受到严格的速率限制。 ...

OpenAI: ChatGPT-4o
Openai
125K context $5/M input tokens $15/M output tokens $0.007/M image tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。该模型基于 Llama 3.1 405B,并具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 405B Online
Perplexity
124.09K context $5/M input tokens $5/M output tokens $0.005/M request tokens

Lunaris 8B 是一个多功能的通用和角色扮演模型,基于 Llama 3。它是多个模型的战略合并,旨在平衡创造力与改进的逻辑和一般知识。 由 Sao10k 创建,该模型旨在提供比 Stheno v3.2 更好的体验,具有增强的创造力和逻辑推理能力。 为了获得最佳效果,请使用 Llama 3 In ...

Llama 3 8B Lunaris
Sao10k
8K context $2/M input tokens $2/M output tokens

Starcannon 12B 是一个创意角色扮演和故事写作模型,基于 nothingiisreal/mn-celeste-12b 并使用 [intervitens/mini-magnum-12b-v1.1](https://huggingface.co/int ...

Mistral Nemo 12B Starcannon
Aetherwiing
11.72K context $2/M input tokens $2/M output tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能方面超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有帮助、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 70B Online
Perplexity
124.09K context $1/M input tokens $1/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效率、速度和性能上超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有用、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 8B Online
Perplexity
124.09K context $0.2/M input tokens $0.2/M output tokens $0.005/M request tokens

Meta最新发布的模型类别(Llama 3.1)推出了多种尺寸和版本。这个70B的指令调优版本针对高质量对话用例进行了优化。 在人工评估中,它与领先的闭源模型相比表现出色。 使用该模型需遵循Meta的可接受使用政策。 ...

Meta: Llama 3.1 70B Instruct
Meta llama
128K context $0.3/M input tokens $0.3/M output tokens

Meta最新发布的模型系列(Llama 3.1)推出了多种规模和版本。这个70B的指令调优版本针对高质量对话用例进行了优化。 与领先的闭源模型相比,它在人工评估中表现出色。 使用该模型须遵循Meta的可接受使用政策。 _这些是[Llama 3.1 70B Instruct]( ...

Meta: Llama 3.1 70B Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Meta最新发布的模型系列(Llama 3.1)推出了多种尺寸和版本。这个8B指令调优版本快速且高效。 与领先的闭源模型相比,它在人工评估中表现出色。 使用此模型需遵循Meta的可接受使用政策。 ...

Meta: Llama 3.1 8B Instruct
Meta llama
128K context $0.055/M input tokens $0.055/M output tokens

由Mistral与NVIDIA合作构建的12B参数模型,具有128k的上下文长度。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在Apache 2.0许可证下发布。 ...

Mistral: Mistral Nemo
Mistralai
125K context $0.13/M input tokens $0.13/M output tokens

Qwen2 7B 是一个基于变换器的模型,擅长语言理解、多语言能力、编码、数学和推理。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行预训练,并经过监督微调和直接偏好优化。 有关更多详细信息,请参阅此 博客文章 和 [GitHub 仓库](https ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓 ...

Qwen 2 7B Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Gemma 2 27B 由 Google 开发,是一个开放模型,基于创建 Gemini 模型 所使用的相同研究和技术。 Gemma 模型非常适合多种文本生成任务,包括问答、摘要和推理。 有关更多详细信息,请参阅 [发布公告](https://blog.google/technology/developers/google-g ...

Google: Gemma 2 27B
Google
8K context $0.27/M input tokens $0.27/M output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 它旨在支持各种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和经济性。 有关更多详细信息,请参见 [launch announcement](https://blog.google/technology/developers/googl ...

Google: Gemma 2 9B
Google
8K context $0.06/M input tokens $0.06/M output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在支持多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参阅 发布公告。 ...

Google: Gemma 2 9B (free)
Rifx.Online
4K context $0 input tokens $0 output tokens

Dolphin 2.9 旨在进行指令跟随、对话和编码。该模型是 Mixtral 8x22B Instruct 的微调版本。它具有 64k 的上下文长度,并使用 ChatML 模板进行了 16k 序列长度的微调。 该模型是 [Dolphin Mixtral 8x7B](/cognitivecom ...

Dolphin 2.9.2 Mixtral 8x22B 🐬
Cognitivecomputations
64K context $0.9/M input tokens $0.9/M output tokens

一个高性能、行业标准的7.3B参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct有多个版本变体,本文旨在介绍最新版本。 ...

Mistral: Mistral 7B Instruct
Mistralai
32K context $0.055/M input tokens $0.055/M output tokens

一个高性能、行业标准的 7.3B 参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct 有多个版本变体,这里是最新版本。 _这些是 Mistral 7B Instruct 的免费限速端点。输出可能会被缓存。有关速率限制的信息,请阅读 [这里](/docs/limi ...

Mistral: Mistral 7B Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于截止到 2023 年 10 月的离线数据集。 ...

Phi-3 Mini 128K Instruct
Microsoft
125K context $0.1/M input tokens $0.1/M output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于一个截至 2023 年 10 月的离线数据集。 _这些是免费的、速率限制的端点,适用于 [ ...

Phi-3 Mini 128K Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...

Phi-3 Medium 128K Instruct
Microsoft
125K context $1/M input tokens $1/M output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...

Phi-3 Medium 128K Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

DeepSeek-V2.5 是一个升级版本,结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。新模型整合了前两个版本的通用能力和编码能力。 DeepSeek-V2 Chat 是 DeepSeek-V2 的对话微调版本,属于混合专家(MoE)语言模型。它总共包含 236B 个参数,其中每个 token 激活 21B。 ...

DeepSeek V2.5
Deepseek
125K context $0.14/M input tokens $0.28/M output tokens

Gemini 1.5 Flash 是一个基础模型,在视觉理解、分类、摘要以及从图像、音频和视频创建内容等多种多模态任务中表现出色。它擅长处理视觉和文本输入,例如照片、文档、信息图和截图。 Gemini 1.5 Flash 旨在处理高容量、高频率的任务,其中成本和延迟至关重要。在大多数常见任务中,Flash 的质量与其他 Gemini Pro 模型相当,但成本显著降低 ...

Google: Gemini Flash 1.5
Google
976.56K context $0.075/M input tokens $0.3/M output tokens $0.04/K image tokens

Mistral的官方指令微调版本Mixtral 8x22B。它使用141B中的39B活跃参数,为其规模提供无与伦比的成本效益。它的优点包括:强大的数学、编码和推理能力 大上下文长度(64k) 流利的英语、法语、意大利语、德语和西班牙语在发布公告中查看基准测试[这里](https://mistra ...

Mistral: Mixtral 8x22B Instruct
Mistralai
64K context $0.9/M input tokens $0.9/M output tokens

WizardLM-2 7B 是微软 AI 最新 Wizard 模型的较小版本。它是最快的,并且在性能上与现有的 10 倍更大的开源领先模型相当。 它是对 Mistral 7B Instruct 的微调,使用与 [WizardLM-2 8x22B](/microsoft/wizardlm-2-8x22 ...

WizardLM-2 7B
Microsoft
31.25K context $0.055/M input tokens $0.055/M output tokens

WizardLM-2 8x22B 是微软 AI 最先进的 Wizard 模型。与领先的专有模型相比,它展示了高度竞争的性能,并且始终优于所有现有的最先进的开源模型。 它是 Mixtral 8x22B 的指令微调版本。 要了解有关模型发布的更多信息,[请点击这里](https://wizardlm.github ...

WizardLM-2 8x22B
Microsoft
64K context $0.5/M input tokens $0.5/M output tokens

谷歌最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理Gemini的使用受限于谷歌的Gemini使用条款。 #multimodal ...

Google: Gemini Pro 1.5
Google
1.91M context $1.25/M input tokens $5/M output tokens $0.003/M image tokens

Claude 3 Haiku 是 Anthropic 反应速度最快、体积最小的模型,能够实现近乎即时的响应。快速且准确的定向性能。 查看发布公告和基准测试结果 这里 #multimodal ...

Anthropic: Claude 3 Haiku
Anthropic
195.31K context $0.25/M input tokens $1.25/M output tokens $0.4/K image tokens

Claude 3 Opus 是 Anthropic 针对高度复杂任务的最强大模型。它拥有顶级的性能、智能、流畅性和理解能力。 查看发布公告和基准测试结果 here #multimodal ...

Anthropic: Claude 3 Opus
Anthropic
195.31K context $15/M input tokens $75/M output tokens $0.024/M image tokens

这是对 Mixtral-8x7b 的 16k 上下文微调。由于大量使用编码数据进行训练,它在编码任务中表现出色,并以其服从性而闻名,尽管缺乏 DPO 调优。 该模型未经过审查,并且去除了对齐和偏见。它需要一个外部对齐层以确保伦理使用。用户被提醒要负责任地使用这个高度合规的模型,具体细节可参见关于未审查模型的博客文 ...

Dolphin 2.6 Mixtral 8x7B 🐬
Cognitivecomputations
32K context $0.5/M input tokens $0.5/M output tokens

谷歌的旗舰多模态模型,支持在文本或聊天提示中使用图像和视频,以获得文本或代码响应。 请参阅来自 Deepmind 的基准和提示指南。 使用 Gemini 需遵循谷歌的 Gemini 使用条款。 #multi ...

Google: Gemini Pro Vision 1.0
Google
16K context $0.5/M input tokens $1.5/M output tokens $0.003/M image tokens

OpenChat 7B 是一个开源语言模型库,采用“C-RLFT(条件强化学习微调)”策略进行了微调,该策略受到离线强化学习的启发。它在没有偏好标签的混合质量数据上进行了训练。对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。 对于在 Llama 8B 上微调的 Op...

OpenChat 3.5 7B
Openchat
8K context $0.055/M input tokens $0.055/M output tokens

OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的精细调优——这是一种受离线强化学习启发的策略。它是在没有偏好标签的混合质量数据上进行训练的。对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。 对于在 Llama 8B 上微调的...

OpenChat 3.5 7B (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

PaLM 2 是谷歌推出的一种语言模型,具备更强的多语言、推理和编码能力。 ...

Google: PaLM 2 Chat 32k
Google
31.99K context $1/M input tokens $2/M output tokens

PaLM 2 针对帮助解决代码相关问题的聊天机器人对话进行了微调。 ...

Google: PaLM 2 Code Chat 32k
Google
31.99K context $1/M input tokens $2/M output tokens

该模型是GPT-3.5 Turbo的一个变体,针对教学提示进行了调整,并省略了与聊天相关的优化。训练数据:截至2021年9月。 ...

OpenAI: GPT-3.5 Turbo Instruct
Openai
4K context $1.5/M input tokens $2/M output tokens

原始 MythoMax-L2-B13 的重创版本,但采用了更新的模型。 #merge ...

ReMM SLERP 13B
Undi95
4K context $1.125/M input tokens $1.125/M output tokens

原始 MythoMax-L2-B13 的重现试验,但使用了更新的模型。 #merge 这些是 ReMM SLERP 13B 的扩展上下文端点。它们可能具有更高的价格。 ...

ReMM SLERP 13B (extended)
Undi95
6K context $1.125/M input tokens $1.125/M output tokens

Llama 2 13B 的性能最高且最受欢迎的微调之一,具有丰富的描述和角色扮演。 #merge ...

MythoMax 13B
Gryphe
4K context $0.1/M input tokens $0.1/M output tokens