Type something to search...

Models

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下文长度,请尝试 [Phi-3 ...

Phi-3 Medium 128K Instruct
Microsoft Azure
125K context $1/M input tokens $1/M output tokens

Gemini 1.5 Flash 是一个基础模型,在视觉理解、分类、摘要以及从图像、音频和视频创建内容等多种多模态任务中表现出色。它擅长处理视觉和文本输入,如照片、文档、信息图和截图。 Gemini 1.5 Flash 旨在应对高容量、高频率的任务,在这些任务中,成本和延迟至关重要。在大多数常见任务中,Flash 的质量与其他 Gemini Pro 模型相当,但成本显著降低。Flash 非常适 ...

Google: Gemini Flash 1.5
Google
976.56K context $0.075/M input tokens $0.3/M output tokens $0.04/K image tokens

Command 是一个遵循指令的对话模型,能够以更高的质量、更可靠地执行语言任务,并且比我们的基础生成模型具有更长的上下文。 使用此模型须遵循 Cohere 的 Acceptable Use Policy. ...

Cohere: Command
Cohere
4K context $0.95/M input tokens $1.9/M output tokens

Command-R 是一个 35B 参数模型,能够以更高的质量、更可靠的方式以及更长的上下文执行对话语言任务。它可以用于复杂的工作流程,如代码生成、检索增强生成(RAG)、工具使用和代理。 阅读发布帖子 here。 使用此模型须遵循 Cohere 的 [Acceptable Use Policy](https://do ...

Cohere: Command R
Cohere
125K context $0.475/M input tokens $1.425/M output tokens
FREE

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct (free)
Qwen
32K context $0 input tokens $0 output tokens

Gemma 2 27B by Google 是一个开放模型,基于创建 Gemini models 所使用的相同研究和技术构建。 Gemma 模型非常适合各种文本生成任务,包括问答、摘要和推理。 有关更多详细信息,请参阅 [launch announcement](https://blog.google/technology/developers/goo ...

Google: Gemma 2 27B
Google
8K context $0.27/M input tokens $0.27/M output tokens

来自Goliath的制造商,Magnum 72B是新系列模型中的第一款,旨在达到Claude 3模型的散文质量,特别是Opus和Sonnet。 该模型基于Qwen2 72B,并使用5500万标记的高度 ...

Magnum 72B
Alpindale
16K context $3.75/M input tokens $4.5/M output tokens
FREE

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B (free)
Google
8K context $0 input tokens $0 output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B
Google
8K context $0.06/M input tokens $0.06/M output tokens

A 7.3B 参数的基于 Mamba 的模型,旨在处理代码和推理任务。线性时间推理,允许理论上无限的序列长度 256k 令牌上下文窗口 针对快速响应进行了优化,特别有利于代码生产力 在代码和推理任务中表现与最先进的变换器模型相当 根据 Apache 2.0 许可证提供,允许免费使用、修改和分发...

Mistral: Codestral Mamba
MistralAI
250K context $0.25/M input tokens $0.25/M output tokens

A 12B 参数模型,具有 128k 令牌上下文长度,由 Mistral 与 NVIDIA 合作构建。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在 Apache 2.0 许可证下发布。 ...

Mistral: Mistral Nemo
MistralAI
125K context $0.13/M input tokens $0.13/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Meta最新发布的模型系列(Llama 3.1)推出了多种尺寸和版本。这是基础的405B预训练版本。 与领先的闭源模型相比,它在人工评估中表现出色。 使用此模型须遵循Meta的可接受使用政策。 ...

Meta: Llama 3.1 405B (base)
Meta Llama
128K context $2/M input tokens $2/M output tokens
FREE

Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...

Google: Gemini Pro 1.5 Experimental
Google
1.91M context $0 input tokens $0 output tokens $0.003/M image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Anthropic
195.31K context $1/M input tokens $5/M output tokens
Tags
Type something to search...