Type something to search...

Data science

Microsoft Research Phi-4 旨在在复杂推理任务中表现出色,并能够在内存有限或需要快速响应的情况下高效运行。 它拥有140亿个参数,训练使用了高质量的合成数据集、来自精心挑选网站的数据以及学术材料。经过仔细改进,它能够准确遵循指令并保持强大的安全标准。它最适合处理英语输入。 有关更多信息,请参见 [Phi-4 Technical Report] ...

Microsoft: Phi 4
Microsoft Azure
16K context $0.07/M input tokens $0.14/M output tokens

OpenAI 最新且最强大的模型系列 o1 旨在在回应之前花更多时间思考。o1 模型系列通过大规模强化学习进行训练,以利用思维链进行推理。 o1 模型针对数学、科学、编程和其他与 STEM 相关的任务进行了优化。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅 发布公告. ...

OpenAI: o1
OpenAI
195.31K context $15/M input tokens $60/M output tokens $0.022/M image tokens
FREE

Gemini 2.0 Flash Thinking Mode 是一个实验性模型,旨在生成模型在响应过程中所经历的“思维过程”。因此,Thinking Mode 在其响应中具备比 基础 Gemini 2.0 Flash 模型 更强的推理能力。 ...

Google: Gemini 2.0 Flash Thinking Experimental (free)
Google
39.06K context $0 input tokens $0 output tokens

Grok 2 Vision 1212 通过更强的视觉理解、精细的指令跟随和多语言支持,推动基于图像的 AI 发展。从物体识别到风格分析,它使开发者能够构建更直观、具视觉意识的应用程序。其增强的可操控性和推理能力为下一代图像解决方案奠定了坚实的基础。 要了解更多关于该模型的信息,请查看 xAI's announcement. ...

xAI: Grok 2 Vision 1212
X AI
32K context $2/M input tokens $10/M output tokens $0.004/M image tokens
70% OFF

Amazon Nova Micro 1.0 是一个仅支持文本的模型,能够以非常低的成本在 Amazon Nova 系列模型中提供最低延迟的响应。它的上下文长度为 128K tokens,并针对速度和成本进行了优化,Amazon Nova Micro 在文本摘要、翻译、内容分类、互动聊天和头脑风暴等任务中表现出色。它具有简单的数学推理和编码能力。 ...

nova-micro
Amazon
125K context $0.03/M input tokens $0.14/M output tokens $0.053/K image tokens
70% OFF

Amazon Nova Pro 1.0 是一款来自亚马逊的强大多模态模型,专注于为广泛任务提供准确性、速度和成本的结合。截至2024年12月,它在关键基准测试上实现了最先进的性能,包括视觉问答(TextVQA)和视频理解(VATEX)。 Amazon Nova Pro 在处理视觉和文本信息以及分析财务文件方面表现出色。 注意:目前不支持视频输入和工具调用。 ...

nova-pro
Amazon
292.97K context $0.8/M input tokens $3.2/M output tokens $0.001/M image tokens

text-embedding-3-large 是 OpenAI 于2024年发布的最新文本嵌入模型。相比前代模型,它具有以下主要特点: 主要特性更强的性能: 在大多数任务上的表现都优于之前的 text-embedding-ada-002 模型 更好的多语言支持: 支持100多种语言的文本嵌入 更长的上下文: 支持最多8192个tokens的输入...

text-embedding-3-large
OpenAI
$0.13/M input tokens $0 output tokens

Baichuan3-Turbo 是一款先进的人工智能语言模型,旨在为用户提供高效、智能的自然语言处理解决方案。该模型结合了最新的深度学习技术,具有强大的文本生成和理解能力,可以广泛应用于对话系统、内容创作、信息检索等领域。 主要特点:高效性:Baichuan3-Turbo 采用优化算法,使得处理速度显著提升,能够快速响应用户请求。多样性:该模型支持多...

baichuan3-turbo
Baichuan
31.25K context $1.7/M input tokens $1.7/M output tokens

Baichuan4 模型介绍 Baichuan4 是一款先进的人工智能语言模型,旨在增强自然语言理解和生成能力。该模型基于前沿的深度学习技术,适用于从对话AI和内容创作到数据分析和客户支持等多种应用场景。 主要特点:性能提升:Baichuan4 采用先进算法优化处理效率,实现更快的响应时间和更高质量的互动体验。多语言支持:该模型能够理解和...

baichuan4
Baichuan
31.25K context $14.3/M input tokens $14.3/M output tokens

Moonshot-v1-8k 模型介绍 Moonshot-v1-8k 是一款由 Moonshot AI 开发的大型语言模型,具备卓越的自然语言处理能力。该模型采用了先进的深度学习技术,通过大量文本数据的训练,能够理解和生成自然语言,为用户提供高效、智能的交互体验。 主要特点:强大的语义理解:Moonshot-v1-8k 在语义理解方面表现出色,能够准确解析...

moonshot-v1-8k
Moonshot
7.81K context $1.9/M input tokens $1.9/M output tokens

Amazon Nova Pro 1.0 是一款来自亚马逊的强大多模态模型,专注于为广泛任务提供准确性、速度和成本的结合。截至2024年12月,它在关键基准测试上实现了最先进的性能,包括视觉问答(TextVQA)和视频理解(VATEX)。 Amazon Nova Pro 在处理视觉和文本信息以及分析财务文件方面表现出色。 注意:目前不支持视频输入和工具调用。 ...

Amazon: Nova Pro 1.0
Amazon
292.97K context $0.8/M input tokens $3.2/M output tokens $0.001/M image tokens

Amazon Nova Micro 1.0 是一个仅支持文本的模型,能够以非常低的成本在 Amazon Nova 系列模型中提供最低延迟的响应。它的上下文长度为 128K tokens,并针对速度和成本进行了优化,Amazon Nova Micro 在文本摘要、翻译、内容分类、互动聊天和头脑风暴等任务中表现出色。它具有简单的数学推理和编码能力。 ...

Amazon: Nova Micro 1.0
Amazon
125K context $0.035/M input tokens $0.14/M output tokens $0.053/K image tokens

对原始 MythoMax-L2-B13 的一次重现试验,但使用了更新的模型。 #merge ...

ReMM SLERP 13B
Undi95
4K context $1.125/M input tokens $1.125/M output tokens
40% OFF

Claude 3.5 Sonnet 提供了超越 Opus 的能力,以比 Sonnet 更快的速度,且价格与 Sonnet 相同。Sonnet 在以下方面表现尤为出色:编码:自主编写、编辑和运行代码,具备推理和故障排除能力 数据科学:增强人类的数据科学专业知识;在使用多种工具获取洞察的同时,能够处理非结构化数据 视觉处理:擅长解读图表、图形和图像,准确转录文本,以获取超越文本本身...

Claude 3.5 Sonnet-20240620
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

对原始 MythoMax-L2-B13 的一次重现试验,但使用了更新的模型。 #merge ...

ReMM SLERP 13B (extended)
Undi95
4K context $1.125/M input tokens $1.125/M output tokens

Yi Large 模型由 01.AI 设计,考虑了以下用例:知识搜索、数据分类、人类聊天机器人和客户服务。 它以其多语言能力而脱颖而出,特别是在西班牙语、中文、日语、德语和法语方面。 查看 发布公告 以了解更多信息。 ...

01.AI: Yi Large
01 ai
32K context $3/M input tokens $3/M output tokens

Pixtral Large 是一个 124B 开放权重的多模态模型,基于 Mistral Large 2 构建。该模型能够理解文档、图表和自然图像。 该模型在 Mistral Research License (MRL) 下提供,供研究和教育使用;并在 Mistral Commercial License 下提供,供实验、测试和 ...

Mistral: Pixtral Large 2411
MistralAI
125K context $2/M input tokens $6/M output tokens $0.003/M image tokens

一个由 Mistral AI 提供的预训练生成稀疏专家混合模型,包含 8 个专家(前馈网络),总计 47B 参数。基础模型(未针对指令进行微调) - 请参见 Mixtral 8x7B Instruct 以获取经过指令微调的模型。 #moe ...

Mixtral 8x7B (base)
MistralAI
32K context $0.54/M input tokens $0.54/M output tokens

成本效益高、快速且可靠的选项,适用于翻译、摘要和情感分析等用例。 ...

Mistral Small
MistralAI
31.25K context $0.2/M input tokens $0.6/M output tokens

该模型目前由 Mistral-7B-v0.2 提供支持,并结合了比 Mistral 7B 更“优秀”的微调,灵感来自社区的工作。它最适合用于大批量处理任务,在这些任务中,成本是一个重要因素,但推理能力并不是关键。 ...

Mistral Tiny
MistralAI
31.25K context $0.25/M input tokens $0.25/M output tokens

WizardLM-2 7B 是微软 AI 最新 Wizard 模型的较小变体。它是最快的,并且在性能上与现有的 10 倍大开源领先模型相当。 它是对 Mistral 7B Instruct 的微调,使用与 WizardLM-2 8x22B 相同的技术。 要了解更多 ...

WizardLM-2 7B
Microsoft Azure
31.25K context $0.055/M input tokens $0.055/M output tokens

command-r-plus-08-2024 是 Command R+ 的更新,与之前的 Command R+ 版本相比,吞吐量提高了大约 50%,延迟降低了 25%,同时硬件占用保持不变。 在此处阅读发布帖子 here。 ...

Cohere: Command R+
Cohere
125K context $2.85/M input tokens $14.25/M output tokens

DBRX 是由 Databricks 开发的新开源大语言模型。在 132B 的参数量下,它在语言理解、编程、数学和逻辑的标准行业基准测试中超越了现有的开源 LLM,如 Llama 2 70B 和 Mixtral-8x7b。 它采用了细粒度的专家混合(MoE)架构。任何输入上都有 36B 参数处于激活状态。它在 12T 的文本和代码数据上进行 ...

Databricks: DBRX 132B Instruct
Databricks
32K context $1.08/M input tokens $1.08/M output tokens

一个高性能、行业标准的 7.3B 参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct 有多个版本变体,这里是最新版本。 ...

Mistral: Mistral 7B Instruct
MistralAI
32K context $0.055/M input tokens $0.055/M output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于一个截止日期为 2023 年 10 月的离线数据集。 ...

Phi-3 Mini 128K Instruct
Microsoft Azure
125K context $0.1/M input tokens $0.1/M output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下文长度,请尝试 [Phi-3 ...

Phi-3 Medium 128K Instruct
Microsoft Azure
125K context $1/M input tokens $1/M output tokens
FREE

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct (free)
Qwen
32K context $0 input tokens $0 output tokens

A 7.3B 参数的基于 Mamba 的模型,旨在处理代码和推理任务。线性时间推理,允许理论上无限的序列长度 256k 令牌上下文窗口 针对快速响应进行了优化,特别有利于代码生产力 在代码和推理任务中表现与最先进的变换器模型相当 根据 Apache 2.0 许可证提供,允许免费使用、修改和分发...

Mistral: Codestral Mamba
MistralAI
250K context $0.25/M input tokens $0.25/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Mistral AI 的第一个图像到文本模型。根据他们的传统,其权重通过 torrent 发布: https://x.com/mistralai/status/1833758285167722836 ...

Mistral: Pixtral 12B
MistralAI
4K context $0.1/M input tokens $0.1/M output tokens $0.144/K image tokens

Phi-3.5 模型是轻量级的、最先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公开可用网站数据,重点关注高质量和推理密集特性。Phi-3.5 Mini 使用 3.8B 参数,是一个密集的仅解码器变换器模型,使用与 Phi-3 Mini 相同的分词器。 这些模型经过严格的增 ...

Phi-3.5 Mini 128K Instruct
Microsoft Azure
125K context $0.1/M input tokens $0.1/M output tokens

Claude 3.5 Sonnet 提供了超越 Opus 的能力,以比 Sonnet 更快的速度,且价格与 Sonnet 相同。Sonnet 在以下方面表现尤为出色:编码:自主编写、编辑和运行代码,具备推理和故障排除能力 数据科学:增强人类的数据科学专业知识;在使用多种工具获取洞察的同时,能够处理非结构化数据 视觉处理:擅长解读图表、图形和图像,准确转录文本,以获取超越文本本身的...

Anthropic: Claude 3.5 Sonnet (2024-06-20)
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

Llama 3.2 1B 是一个拥有 10 亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的体积使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可进行微调以支持更多,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样的多语言环境中运行,而不需要大型模型的高计算需求。 点击这里 ...

Meta: Llama 3.2 1B Instruct
Meta Llama
128K context $0.01/M input tokens $0.02/M output tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Claude 3 Sonnet 是企业工作负载的智能与速度的理想平衡。以更低的价格提供最大效用,可靠,适合大规模部署的平衡。 查看发布公告和基准测试结果 here #multimodal ...

Anthropic: Claude 3 Sonnet
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

Claude 3.5 Haiku 在所有技能领域(包括编码、工具使用和推理)中都有所增强。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [here](https://ww ...

Anthropic: Claude 3.5 Haiku
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Claude 3.5 Sonnet 提供了超越 Opus 的能力,以比 Sonnet 更快的速度,且价格与 Sonnet 相同。Sonnet 在以下方面表现尤为出色:编码:自主编写、编辑和运行代码,具备推理和故障排除能力 数据科学:增强人类的数据科学专业知识;在使用多种工具获取洞察的同时,能够处理非结构化数据 视觉处理:擅长解读图表、图形和图像,准确转录文本,以获取超越文本本身的...

Anthropic: Claude 3.5 Sonnet
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

Jamba 1.5 Large 是 AI21 新一代开放模型家族的一部分,提供卓越的速度、效率和质量。 它具有 256K 的有效上下文窗口,是开放模型中最长的,能够在文档摘要和分析等任务上提升性能。 基于新颖的 SSM-Transformer 架构,它在基准测试中超越了更大的模型,如 Llama 3.1 70B,同时保持资源效率。 阅读他们的 [announcement](https:// ...

AI21: Jamba 1.5 Large
Ai21
250K context $2/M input tokens $8/M output tokens

Inflection 3 的生产力经过优化,以便更好地遵循指令。它更适合需要 JSON 输出或严格遵循提供的指南的任务。 有关类似于 Pi 的情感智能,请参见 Inflect 3 Pi。 有关更多详细信息,请参见 Inflection 的公告。 ...

Inflection: Inflection 3 Productivity
Inflection
7.81K context $2.5/M input tokens $10/M output tokens

Liquid的40.3B专家混合模型(MoE)。Liquid基础模型(LFMs)是基于动态系统构建的大型神经网络。 LFMs是通用的AI模型,可以用于建模任何类型的序列数据,包括视频、音频、文本、时间序列和信号。 请查看发布公告以获取基准测试和更多信息。 _这些是免费的、速率限制的端点,适 ...

Liquid: LFM 40B MoE (free)
Liquid
8K context $0 input tokens $0 output tokens
FREE

Llama 3.2 1B 是一个拥有 10 亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的体积使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可进行微调以支持更多,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样的多语言环境中运行,而不需要大型模型的高计算需求。 点击这里 ...

Meta: Llama 3.2 1B Instruct (free)
Meta Llama
128K context $0 input tokens $0 output tokens

The Llama 90B Vision 模型是一个顶尖的、拥有 90 亿参数的多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,专为处理最苛刻的基于图像的 AI 任务而设计。 该模型非常适合需要尖端多模态 AI 能力的行业,特别是那些处理复杂实时视觉和文本分析 ...

Meta: Llama 3.2 90B Vision Instruct
Meta Llama
128K context $0.35/M input tokens $0.4/M output tokens $0.506/K image tokens

ERNIE Bot 概述 关键能力和使用案例:进行互动对话,回答问题,并协助创意任务。 促进高效的信息检索和知识生成。重要特性和改进:知识增强: 利用海量数据和大规模知识提高理解能力。 检索增强: 提升有效检索相关信息的能力。 对话增强: 先进的对话能力,使用户能够进行有意义的互动。**技术 ...

ERNIE-Bot-4.0
Ernie bot 4.0
8K context $16.44/M input tokens $16.44/M output tokens

开发者/公司: 百度研究 关键能力与应用案例: ERNIE-4.0-8K 在自然语言处理 (NLP) 中具有重要价值,适用于搜索引擎、智能客服、内容推荐和情感分析。 特点与改进:多任务学习: 支持文本分类、情感分析和命名实体识别等任务。 知识增强: 融入知识图谱以提升特定领域的表现。 跨语言能力: 有效...

ERNIE-4.0-8K
Ernie
8K context $5.48/M input tokens $16.44/M output tokens

开发者/公司: 百度团队 概述: ERNIE-Tiny-8K 是一个轻量级的预训练语言模型,专为中文自然语言处理任务设计,结合了小巧的体积和快速的推理能力,同时具备高性能。 特点与优势:轻量级设计: 减少参数和层数,实现更小的体积和更快的推理,同时保持性能。 知识增强: 继承了 ERNIE 系列的知识整合,提升...

ERNIE-Tiny-8K
Ernie
8K context $0 input tokens $0 output tokens
2025 年成为人工智能工程师的路线图

2025 年成为人工智能工程师的路线图

如何在2025年成为AI工程师 有没有想过构建能够思考、学习和解决复杂问题的系统需要什么?几年前,我也很好奇——AI是一个未来主义的概念,我不知道从哪里开始。现在,随着我们迈入2025年,成为AI工程师比以往任何时候都更加容易。如果你在这里,你可能对如何从零开始进入这个领域感兴趣。好消息是?不需要成为计算机天才或数学奇才。只需一个清晰的路线图、奉献精神和正确的资源,你就能做到。

阅读更多

基本信息 “GLM-4-AIRX”是一种先进的大型语言模型,由人工智能领域的专家研发。它以其强大的自然语言处理能力著称,能够有效地理解和生成自然语言文本。此模型依赖于深度学习技术,特别是广泛应用于NLP(自然语言处理)领域的Transformer架构。 技术特点 1. 基于Transformer架构 该模型利用了Transformer架构, ...

GLM-4 AirX
ChatGLM
7.81K context $1.4/M input tokens $1.4/M output tokens

GLM-4V 模型介绍 关键能力和主要使用案例多模态对话:参与基于文本和图像的对话。 图像理解:分析和描述图像,包括高达 1120x1120 像素的高分辨率图像。 文本生成:为聊天机器人、语言翻译和文本摘要等任务生成类人文本。 使用案例:智能助手、多模态内容生成、多语言理解和客户服务[1][2][4]。...

glm-4v
ChatGLM
31.25K context $7/M input tokens $7/M output tokens

GLM-4V-Plus 模型介绍 关键能力和主要应用场景多模态理解:在图像和视频理解方面表现出色,包括时间序列分析和视觉问答[2][3]。 文本到图像生成:与行业顶尖模型如 MJ-V6 和 FLUX 的表现相当[2]。 多模态对话 AI:支持文本、音频和视频模态,实现流畅的对话和实时推理[2]。最重要的 ...

glm-4v-plus
ChatGLM
31.25K context $1.4/M input tokens $1.4/M output tokens

GLM-4 Long GLM-4 Long 是一款先进的语言模型,专为扩展上下文处理而设计,非常适合需要对长文档进行全面文本分析和生成的应用。 关键能力扩展上下文理解:能够处理显著更长的文本而不失去连贯性。 多功能应用:适用于内容创作、摘要、翻译和复杂问题解决。重要特性增强记忆机制:改进了对大量输入数据的...

GLM-4 Long
ChatGLM
976.56K context $0.14/M input tokens $0.14/M output tokens

GLM-4 Air 模型介绍 关键能力和主要使用案例多语言支持:主要针对中文和英文,同时支持24种其他语言。 任务完成:能够通过网页浏览访问在线信息,使用Python解释器解决数学问题,利用文本到图像模型,并调用用户定义的函数[2][5]。 指令遵循:在英文和中文中有效地遵循指令[2]。最重要的特性和改 ...

GLM-4 Air
ChatGLM
125K context $0.14/M input tokens $0.14/M output tokens

Claude 3.5 Haiku 在所有技能领域中都进行了增强,包括编码、工具使用和推理。作为 Anthropic 系列中速度最快的模型,它提供快速的响应时间,适用于需要高交互性和低延迟的应用,如面向用户的聊天机器人和即时代码补全。它在数据提取和实时内容审核等专业任务中表现出色,使其成为广泛行业的多功能工具。 它不支持图像输入。 查看发布公告和基准测试结果 [he ...

Anthropic: Claude 3.5 Haiku (2024-10-22)
Rifx.Online
195.31K context $1/M input tokens $5/M output tokens

Claude 3.5 Haiku 特性提供了更高的速度、编码准确性和工具使用能力。旨在在实时应用中表现出色,它提供了快速的响应时间,这对于动态任务(如聊天互动和即时编码建议)至关重要。 这使其非常适合需要速度和精度的环境,例如软件开发、客户服务机器人和数据管理系统。 此模型当前指向 [Claude 3.5 Haiku (2024-10-22)](/anthropi ...

Anthropic: Claude 3.5 Haiku
Anthropic
195.31K context $1/M input tokens $5/M output tokens

Grok Beta 是 xAI 的实验性语言模型,具有最先进的推理能力,最适合复杂和多步骤的用例。 它是 Grok 2 的继任者,具有增强的上下文长度。 ...

xAI: Grok Beta
X ai
128K context $5/M input tokens $15/M output tokens

Ministral 3B 是一个针对设备和边缘计算优化的 3B 参数模型。它在知识、常识推理和函数调用方面表现出色,在大多数基准测试中超越了像 Mistral 7B 这样的更大模型。支持最长 128k 的上下文长度,非常适合高效推理的代理工作流和专业任务的协调。 ...

Ministral 3B
Mistralai
125K context $0.04/M input tokens $0.04/M output tokens

Ministral 8B 是一个具有 8B 参数的模型,采用独特的交错滑动窗口注意力模式,以实现更快、更节省内存的推理。该模型专为边缘使用案例设计,支持最长 128k 的上下文长度,并在知识和推理任务中表现出色。它在低于 10B 的类别中优于同类产品,非常适合低延迟、注重隐私的应用。 ...

Ministral 8B
Mistralai
125K context $0.1/M input tokens $0.1/M output tokens

Qwen2.5 7B 是 Qwen 大语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学方面的能力大幅提升,这得益于我们在这些领域的专业模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出,特别是 JSON 方面有显著改进。对系统提示的多样性更具韧...

Qwen2.5 7B Instruct
Qwen
128K context $0.27/M input tokens $0.27/M output tokens

Inflection 3 的生产力经过优化,以便更好地遵循指令。它更适合需要 JSON 输出或精确遵循提供的指导方针的任务。 有关类似于 Pi 的情感智能,请参见 Inflect 3 Pi。 有关更多详细信息,请参见 [Inflection 的公告](https://inflection.ai/blog ...

Inflection: Inflection 3 Productivity
Inflection
7.81K context $2.5/M input tokens $10/M output tokens

Liquid的40.3B专家混合(MoE)模型。Liquid基础模型(LFMs)是基于动态系统构建的大型神经网络。 LFMs是通用的AI模型,可以用于建模任何类型的序列数据,包括视频、音频、文本、时间序列和信号。 有关基准和更多信息,请参见发布公告。 ...

Liquid: LFM 40B MoE
Liquid
32K context $1/M input tokens $2/M output tokens

Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的鸿沟。该模型在大量图像-文本对的数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉语言 AI 应用的行业的理想解决 ...

Meta: Llama 3.2 11B Vision Instruct
Meta llama
128K context $0.055/M input tokens $0.055/M output tokens $0.079/K image tokens

Llama 90B Vision模型是一款顶级的90亿参数多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,专为处理最苛刻的基于图像的AI任务而设计。 此模型非常适合需要尖端多模态AI能力的行业,尤其是那些处理复杂实时视觉和文本分析的 ...

Meta: Llama 3.2 90B Vision Instruct
Meta llama
128K context $0.35/M input tokens $0.4/M output tokens $0.506/K image tokens

Qwen2.5 72B 是 Qwen 大型语言模型的最新系列。Qwen2.5 在 Qwen2 的基础上带来了以下改进:知识显著增加,并在编码和数学能力上有了很大提升,这得益于我们在这些领域的专业专家模型。在遵循指令、生成长文本(超过 8K tokens)、理解结构化数据(例如,表格)以及生成结构化输出(特别是 JSON)方面有显著改进。对系统提示的多样...

Qwen2.5 72B Instruct
Qwen
128K context $0.35/M input tokens $0.4/M output tokens

OpenAI最新且最强大的模型系列o1旨在在响应之前花更多时间思考。 o1模型经过优化,适用于数学、科学、编程及其他STEM相关任务。它们在物理、化学和生物学的基准测试中始终展现出博士级的准确性。了解更多信息,请查看发布公告。 注意:该模型目前处于实验阶段,不适合生产使用,并可能受到严格的速率限制。 ...

OpenAI: o1-mini
Openai
125K context $3/M input tokens $12/M output tokens

OpenAI最新且最强大的模型系列o1旨在在响应之前花更多时间思考。 o1模型经过优化,适用于数学、科学、编程和其他STEM相关任务。它们在物理、化学和生物学的基准测试中始终表现出博士级的准确性。有关更多信息,请参阅发布公告。 注意:该模型目前处于实验阶段,不适合生产使用案例,并且可能会受到严格的速率限制。 ...

OpenAI: o1-preview
Openai
125K context $15/M input tokens $60/M output tokens

command-r-08-2024 是 Command R 的更新,提升了多语言检索增强生成 (RAG) 和工具使用的性能。更广泛地说,它在数学、代码和推理方面表现更佳,并且与之前的更大版本 Command R+ 模型具有竞争力。 阅读发布帖子 [这里](https://docs.cohere.com/changelog/c ...

Cohere: Command R (08-2024)
Cohere
125K context $0.143/M input tokens $0.57/M output tokens

Jamba 1.5 Large 是 AI21 新一代开放模型家族的一部分,提供卓越的速度、效率和质量。 它具有 256K 的有效上下文窗口,是开放模型中最长的,能够在文档摘要和分析等任务上提升性能。 基于新颖的 SSM-Transformer 架构,它在基准测试中超越了更大的模型,如 Llama 3.1 70B,同时保持资源效率。 阅读他们的 [announce ...

AI21: Jamba 1.5 Large
Ai21
250K context $2/M input tokens $8/M output tokens

Jamba 1.5 Mini 是世界上首个生产级 Mamba 基础模型,结合了 SSM 和 Transformer 架构,具有 256K 的上下文窗口和高效率。 它支持 9 种语言,并能够处理各种写作和分析任务,效果与类似的小模型相当或更好。 该模型比以前的设计使用更少的计算机内存,并且在处理较长文本时速度更快。 阅读他们的 [公告](https://www.a ...

AI21: Jamba 1.5 Mini
Ai21
250K context $0.2/M input tokens $0.4/M output tokens

Phi-3.5 模型是轻量级的、先进的开放模型。这些模型使用 Phi-3 数据集进行训练,该数据集包括合成数据和经过筛选的公共网站数据,重点关注高质量和推理密集的特性。Phi-3.5 Mini 使用 3.8B 参数,是一种仅解码的稠密变换器模型,使用与 Phi-3 Mini 相同的分词器。 ...

Phi-3.5 Mini 128K Instruct
Microsoft
125K context $0.1/M input tokens $0.1/M output tokens

由Mistral与NVIDIA合作构建的12B参数模型,具有128k的上下文长度。 该模型是多语言的,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语。 它支持函数调用,并在Apache 2.0许可证下发布。 ...

Mistral: Mistral Nemo
Mistralai
125K context $0.13/M input tokens $0.13/M output tokens

Qwen2 7B 是一个基于变换器的模型,擅长语言理解、多语言能力、编码、数学和推理。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行预训练,并经过监督微调和直接偏好优化。 有关更多详细信息,请参阅此 博客文章 和 [GitHub 仓库](https ...

Qwen 2 7B Instruct
Qwen
32K context $0.054/M input tokens $0.054/M output tokens

Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓 ...

Qwen 2 7B Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 它旨在支持各种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和经济性。 有关更多详细信息,请参见 [launch announcement](https://blog.google/technology/developers/googl ...

Google: Gemma 2 9B
Google
8K context $0.06/M input tokens $0.06/M output tokens

Claude 3.5 Sonnet 提供了超越 Opus 的能力,以比 Sonnet 更快的速度,且价格与 Sonnet 相同。Sonnet 在以下方面表现尤为出色:编程:自主编写、编辑和运行代码,并进行推理和故障排除 数据科学:增强人类的数据科学专业知识;在使用多种工具获取见解的同时,处理非结构化数据 视觉处理:擅长解读图表、图形和图像,准确转录文本...

Anthropic: Claude 3.5 Sonnet (2024-06-20)
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于截止到 2023 年 10 月的离线数据集。 ...

Phi-3 Mini 128K Instruct
Microsoft
125K context $0.1/M input tokens $0.1/M output tokens

Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于一个截至 2023 年 10 月的离线数据集。 _这些是免费的、速率限制的端点,适用于 [ ...

Phi-3 Mini 128K Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...

Phi-3 Medium 128K Instruct
Microsoft
125K context $1/M input tokens $1/M output tokens

Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...

Phi-3 Medium 128K Instruct (free)
Rifx.Online
8K context $0 input tokens $0 output tokens

DeepSeek-V2.5 是一个升级版本,结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct。新模型整合了前两个版本的通用能力和编码能力。 DeepSeek-V2 Chat 是 DeepSeek-V2 的对话微调版本,属于混合专家(MoE)语言模型。它总共包含 236B 个参数,其中每个 token 激活 21B。 ...

DeepSeek V2.5
Deepseek
125K context $0.14/M input tokens $0.28/M output tokens

Mistral的官方指令微调版本Mixtral 8x22B。它使用141B中的39B活跃参数,为其规模提供无与伦比的成本效益。它的优点包括:强大的数学、编码和推理能力 大上下文长度(64k) 流利的英语、法语、意大利语、德语和西班牙语在发布公告中查看基准测试[这里](https://mistra ...

Mistral: Mixtral 8x22B Instruct
Mistralai
64K context $0.9/M input tokens $0.9/M output tokens

None ...

Anthropic: Claude 3 Sonnet
Anthropic
195.31K context $3/M input tokens $15/M output tokens $0.005/M image tokens

该模型目前由 Mistral-7B-v0.2 驱动,并结合了比 Mistral 7B 更“优越”的微调,灵感来自社区的工作。它最适合用于大批量处理任务,在这些任务中,成本是一个重要因素,但推理能力并不是关键。 ...

Mistral Tiny
Mistralai
31.25K context $0.25/M input tokens $0.25/M output tokens

一个由Mistral AI开发的预训练生成稀疏专家混合模型,包含8个专家(前馈网络),总计47B参数。基础模型(未针对指令进行微调) - 请参见Mixtral 8x7B Instruct以获取经过指令微调的模型。 #moe ...

Mixtral 8x7B (base)
Mistralai
32K context $0.54/M input tokens $0.54/M output tokens

一个野生的7B参数模型,通过mergekit中的新task_arithmetic合并方法合并了多个模型。 合并模型列表:NousResearch/Nous-Capybara-7B-V1.9 HuggingFaceH4/zephyr-7b-beta lemonilia/AshhLimaRP-...

Toppy M 7B
Undi95
4K context $0.07/M input tokens $0.07/M output tokens

A wild 7B 参数模型,使用 mergekit 的新 task_arithmetic 合并方法合并了多个模型。合并模型列表: NousResearch/Nous-Capybara-7B-V1.9 HuggingFaceH4/zephyr-7b-beta lemonil...

Toppy M 7B (free)
Rifx.Online
4K context $0 input tokens $0 output tokens