Type something to search...
Perplexity: R1 1776

Perplexity: R1 1776

  • 125K Context
  • 2/M Input Tokens
  • 8/M Output Tokens

R1 1776 是 DeepSeek-R1 的一个版本,经过后期训练以去除与中国政府限制主题相关的审查约束。该模型保留了其原有的推理能力,同时对更广泛的查询提供直接响应。R1 1776 是一个离线聊天模型,不使用困惑度搜索子系统。

该模型在一个包含超过 1,000 个示例的多语言数据集上进行了测试,涵盖敏感主题,以测量其拒绝或过度过滤响应的可能性。 评估结果 它在数学和推理基准上的表现与基础 R1 模型相似。 推理性能

博客文章 上阅读更多内容。

Related Posts

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个正常的离线 LLM,但该模型的 在线版本 具有互联网访问功能。 ...

Perplexity: Llama 3.1 Sonar 70B
Perplexity
128K context $1/M input tokens $1/M output tokens

Llama 3.1 Sonar 是 Perplexity 最新的模型系列。它在成本效益、速度和性能上超越了他们早期的 Sonar 模型。 这是一个普通的离线 LLM,但该模型的 在线版本 具有互联网访问权限。 ...

Perplexity: Llama 3.1 Sonar 8B
Perplexity
128K context $0.2/M input tokens $0.2/M output tokens
Type something to search...