Type something to search...
Perplexity

Perplexity

Perplexity是一家专注于提供高性能语言模型服务的AI公司。该公司提供多种支持函数调用(Function Calling)的先进语言模型,主要包括:

  • Llama 3.1 70B:最强大的模型,提供卓越的性能和准确度
  • Llama 3.1 8B:轻量级模型,提供出色的速度和效率
  • Sonar 3.1 Large:专为企业级应用优化的模型
  • Sonar 3.1 Small:经济实惠的高性能选择

这些模型都完全支持函数调用功能,使开发者能够轻松构建复杂的AI应用。在性能方面:

速度性能:

  • Llama 3.1 8B领先,达到158 tokens/秒
  • Sonar 3.1 Small紧随其后,达到145 tokens/秒
  • Llama 3.1 70B和Sonar 3.1 Large虽速度较慢但提供更高的准确度

延迟表现:

  • Sonar 3.1 Large:0.37秒
  • Llama 3.1 8B:0.40秒
  • 其他模型也都保持在较低水平

上下文窗口支持:

  • Sonar系列:131k tokens
  • Llama系列:128k tokens

定价策略(每百万tokens):

  • Llama 3.1 8B:$0.20
  • Sonar 3.1 Small:$0.20
  • Llama 3.1 70B:$1.00
  • Sonar 3.1 Large:$0.80

所有这些模型都支持JSON模式输出,这使它们特别适合构建需要结构化数据处理的应用程序。通过提供这些支持函数调用的多样化模型选择,Perplexity为开发者提供了灵活且强大的AI开发工具。

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。该模型基于 Llama 3.1 405B,并具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 405B Online
Perplexity
124.09K context $5/M input tokens $5/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能方面超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有帮助、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 70B Online
Perplexity
124.09K context $1/M input tokens $1/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效率、速度和性能上超越了他们早期的 Sonar 模型。 这是 离线聊天模型 的在线版本。它专注于提供有用、最新和真实的响应。 #online ...

Perplexity: Llama 3.1 Sonar 8B Online
Perplexity
124.09K context $0.2/M input tokens $0.2/M output tokens $0.005/M request tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个正常的离线 LLM,但该模型的 在线版本 具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 70B
Perplexity
128K context $1/M input tokens $1/M output tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个普通的离线 LLM,但该模型的 在线版本 具有互联网访问权限。 ...

Perplexity: Llama 3.1 Sonar 8B
Perplexity
128K context $0.2/M input tokens $0.2/M output tokens