Type something to search...

Models

Gemma 2 27B by Google 是一个开放模型,基于创建 Gemini models 所使用的相同研究和技术构建。 Gemma 模型非常适合各种文本生成任务,包括问答、摘要和推理。 有关更多详细信息,请参阅 [launch announcement](https://blog.google/technology/developers/goo ...

Google: Gemma 2 27B
Google
8K context $0.27/M input tokens $0.27/M output tokens

来自Goliath的制造商,Magnum 72B是新系列模型中的第一款,旨在达到Claude 3模型的散文质量,特别是Opus和Sonnet。 该模型基于Qwen2 72B,并使用5500万标记的高度 ...

Magnum 72B
Alpindale
16K context $3.75/M input tokens $4.5/M output tokens
FREE

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B (free)
Google
8K context $0 input tokens $0 output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...

Google: Gemma 2 9B
Google
8K context $0.06/M input tokens $0.06/M output tokens

A 7.3B 参数的基于 Mamba 的模型,旨在处理代码和推理任务。线性时间推理,允许理论上无限的序列长度 256k 令牌上下文窗口 针对快速响应进行了优化,特别有利于代码生产力 在代码和推理任务中表现与最先进的变换器模型相当 根据 Apache 2.0 许可证提供,允许免费使用、修改和分发...

Mistral: Codestral Mamba
MistralAI
250K context $0.25/M input tokens $0.25/M output tokens

A 12B 参数模型,具有 128k 令牌上下文长度,由 Mistral 与 NVIDIA 合作构建。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在 Apache 2.0 许可证下发布。 ...

Mistral: Mistral Nemo
MistralAI
125K context $0.13/M input tokens $0.13/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Meta最新发布的模型系列(Llama 3.1)推出了多种尺寸和版本。这是基础的405B预训练版本。 与领先的闭源模型相比,它在人工评估中表现出色。 使用此模型须遵循Meta的可接受使用政策。 ...

Meta: Llama 3.1 405B (base)
Meta Llama
128K context $2/M input tokens $2/M output tokens
FREE

Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...

Google: Gemini Pro 1.5 Experimental
Google
1.91M context $0 input tokens $0 output tokens $0.003/M image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Claude 3 Opus 是 Anthropic 针对高度复杂任务推出的最强大模型。它具有顶级的性能、智能、流畅性和理解能力。 查看发布公告和基准测试结果 这里 #multimodal ...

Anthropic: Claude 3 Opus
Anthropic
195.31K context $15/M input tokens $75/M output tokens $0.024/M image tokens

Claude 3 Sonnet 是企业工作负载的智能与速度的理想平衡。以更低的价格提供最大效用,可靠,适合大规模部署的平衡。 查看发布公告和基准测试结果 here #multimodal ...

Anthropic: Claude 3 Sonnet
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

Claude 3 Haiku 是 Anthropic 最快、最紧凑的模型,提供近乎即时的响应能力。快速且准确的针对性表现。 查看发布公告和基准测试结果 here #multimodal ...

Anthropic: Claude 3 Haiku
Anthropic
195.31K context $0.25/M input tokens $1.25/M output tokens $0.4/K image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Claude 3.5 Sonnet 提供了超越 Opus 的能力,以比 Sonnet 更快的速度,且价格与 Sonnet 相同。Sonnet 在以下方面表现尤为出色:编码:自主编写、编辑和运行代码,具备推理和故障排除能力 数据科学:增强人类的数据科学专业知识;在使用多种工具获取洞察的同时,能够处理非结构化数据 视觉处理:擅长解读图表、图形和图像,准确转录文本,以获取超越文本本身的...

Anthropic: Claude 3.5 Sonnet
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens
Tags
Type something to search...