Type something to search...
Perplexity

Perplexity

Perplexity是一家专注于提供高性能语言模型服务的AI公司。该公司提供多种支持函数调用(Function Calling)的先进语言模型,主要包括:

  • Llama 3.1 70B:最强大的模型,提供卓越的性能和准确度
  • Llama 3.1 8B:轻量级模型,提供出色的速度和效率
  • Sonar 3.1 Large:专为企业级应用优化的模型
  • Sonar 3.1 Small:经济实惠的高性能选择

这些模型都完全支持函数调用功能,使开发者能够轻松构建复杂的AI应用。在性能方面:

速度性能:

  • Llama 3.1 8B领先,达到158 tokens/秒
  • Sonar 3.1 Small紧随其后,达到145 tokens/秒
  • Llama 3.1 70B和Sonar 3.1 Large虽速度较慢但提供更高的准确度

延迟表现:

  • Sonar 3.1 Large:0.37秒
  • Llama 3.1 8B:0.40秒
  • 其他模型也都保持在较低水平

上下文窗口支持:

  • Sonar系列:131k tokens
  • Llama系列:128k tokens

定价策略(每百万tokens):

  • Llama 3.1 8B:$0.20
  • Sonar 3.1 Small:$0.20
  • Llama 3.1 70B:$1.00
  • Sonar 3.1 Large:$0.80

所有这些模型都支持JSON模式输出,这使它们特别适合构建需要结构化数据处理的应用程序。通过提供这些支持函数调用的多样化模型选择,Perplexity为开发者提供了灵活且强大的AI开发工具。

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。该模型基于 Llama 3.1 405B,并具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 405B Online
Perplexity
124.09K context $5/M input tokens $5/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能方面超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有帮助、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 70B Online
Perplexity
124.09K context $1/M input tokens $1/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效率、速度和性能上超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有用、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 8B Online
Perplexity
124.09K context $0.2/M input tokens $0.2/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个正常的离线 LLM,但该模型的 在线版本 具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 70B
Perplexity
128K context $1/M input tokens $1/M output tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个普通的离线 LLM,但该模型的 在线版本 具有互联网访问权限。 ...

Perplexity: Llama 3.1 Sonar 8B
Perplexity
128K context $0.2/M input tokens $0.2/M output tokens

R1 1776 是 DeepSeek-R1 的一个版本,经过后期训练以去除与中国政府限制主题相关的审查约束。该模型保留了其原有的推理能力,同时对更广泛的查询提供直接响应。R1 1776 是一个离线聊天模型,不使用困惑度搜索子系统。 该模型在一个包含超过 1,000 个示例的多语言数据集上进行了测试,涵盖敏感主题,以测量其拒绝或过度过滤响应的可能性。 [评估结果](https://cdn-upl ...

Perplexity: R1 1776
Perplexity
125K context $2/M input tokens $8/M output tokens
Type something to search...