Type something to search...
Meta Llama3.3:70B 型号,Llama3.1 的备用型号 405B

Meta Llama3.3:70B 型号,Llama3.1 的备用型号 405B

Llama3.3 是 Llama 系列中的第 3 个模型系列,继 Llama3.1 和 Llama3.2 之后

因此,Meta 在今年的最后一次发布中推出了 Llama3.3,这是一个 700 亿参数的生成式 AI 模型,已经展示了一些非常出色的结果,并在基准数据集上击败了一些最先进的大语言模型。正如 Meta 所承诺的,该模型是开源的,因此可以免费使用。

如果你不知道的话,Llama3.3 是 Llama 系列中的第 3 个版本,前两个版本分别是 Llama3.1(80 亿、700 亿、4050 亿参数),Llama3.2(4 个变体,多模态),而现在是 Llama3.3(700 亿参数,纯文本)。

模型架构

Llama 3.3 采用自回归方式运行,这意味着它通过预测序列中的下一个词来生成文本,预测的依据是前面的词。这种方法使得生成的文本连贯且上下文相关,使其适用于自然语言处理中的各种任务。Llama 3.3 的架构基于经过性能优化的变压器设计。

关键特性包括:

  • 分组查询注意力 (GQA):这种机制通过允许模型同时处理多个查询来提高推理过程中的效率,这在处理更大数据集和更长序列时特别有益。
  • 128K 词汇量的分词器:该模型使用一个能够处理庞大词汇量的分词器,提高了其高效且有效地编码语言的能力。

训练方法

Llama 3.3 采用两种主要的训练方法来提升其性能:

  1. 有监督微调 (SFT):此过程涉及在标记数据集上训练模型,其中使用人工反馈来指导学习过程。
  2. 基于人类反馈的强化学习 (RLHF):RLHF 通过在训练过程中结合人类评估者的反馈进一步优化模型的能力。

训练数据: 基于多种公开的在线资源混合构建。

上下文长度: 可处理长达 128k 个标记的输入。

标记数量: 在超过 15 万亿个标记上进行训练。

知识截止日期: 更新至 2023 年 12 月。

支持的语言: 英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。

性能和指标

如上表所示

Llama3.3 在几乎所有基准测试中都优于 Llama3.1 70B

在 GPQA Diamond、MATH、IFEval 等指标上也超过了 Llama3.1 405B

甚至成本也仅为 Llama3.1 405B 的约 1/5。

总体而言,指标表现良好,考虑到模型的大小,性能非常出色。

如何使用 Llama3.3?

该模型可在 HuggingFace 上使用。首先你需要

  • 访问受限制的仓库(填写简短的表单)

  • 更新 transformers
pip install --upgrade transformers
  • 生成一个 HuggingFace READ 令牌(免费创建)。
  • 按照以下代码
import transformers
import torch

model_id = "meta-llama/Llama-3.3-70B-Instruct"

pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto",
)

messages = [
    {"role": "system", "content": "You are a pirate chatbot who always responds in pirate speak!"},
    {"role": "user", "content": "Who are you?"},
]

outputs = pipeline(
    messages,
    max_new_tokens=256,
)
print(outputs[0]["generated_text"][-1])

总之,Llama 3.3 作为 Llama 3.1 405B 等大型模型的强大且经济实惠的替代品,在关键基准测试中表现出色,同时保持开源和易访问性。其优化的架构、先进的训练方法和对多种语言的支持使其成为广泛 NLP 应用的理想选择。无论你是在探索文本生成、推理任务还是编程挑战,Llama 3.3 都能以较低的成本提供强大的解决方案,使其成为开发人员和研究人员的宝贵工具。

Related Posts

结合chatgpt-o3-mini与perplexity Deep Research的3步提示:提升论文写作质量的终极指南

结合chatgpt-o3-mini与perplexity Deep Research的3步提示:提升论文写作质量的终极指南

AI 研究报告和论文写作 合并两个系统指令以获得两个模型的最佳效果 Perplexity AI 的 Deep Research 工具提供专家级的研究报告,而 OpenAI 的 ChatGPT-o3-mini-high 擅长推理。我发现你可以将它们结合起来生成令人难以置信的论文,这些论文比任何一个模型单独撰写的都要好。你只需要将这个一次性提示复制到 **

阅读更多
让 Excel 过时的 10 种 Ai 工具:实现数据分析自动化,节省手工作业时间

让 Excel 过时的 10 种 Ai 工具:实现数据分析自动化,节省手工作业时间

Non members click here作为一名软件开发人员,多年来的一个发现总是让我感到惊讶,那就是人们还在 Excel

阅读更多
使用 ChatGPT 搜索网络功能的 10 种创意方法

使用 ChatGPT 搜索网络功能的 10 种创意方法

例如,提示和输出 你知道可以使用 ChatGPT 的“搜索网络”功能来完成许多任务,而不仅仅是基本的网络搜索吗? 对于那些不知道的人,ChatGPT 新的“搜索网络”功能提供实时信息。 截至撰写此帖时,该功能仅对使用 ChatGPT 4o 和 4o-mini 的付费会员开放。 ![](https://images.weserv.nl/?url=https://cdn-im

阅读更多
掌握Ai代理:解密Google革命性白皮书的10个关键问题解答

掌握Ai代理:解密Google革命性白皮书的10个关键问题解答

10 个常见问题解答 本文是我推出的一个名为“10 个常见问题解答”的新系列的一部分。在本系列中,我旨在通过回答关于该主题的十个最常见问题来分解复杂的概念。我的目标是使用简单的语言和相关的类比,使这些想法易于理解。 图片来自 [Solen Feyissa](https://unsplash.com/@solenfeyissa?utm_source=medium&utm_medi

阅读更多
在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和技术领域保持领先地位的 10 项必学技能 📚

在人工智能和科技这样一个动态的行业中,保持领先意味着不断提升你的技能。无论你是希望深入了解人工智能模型性能、掌握数据分析,还是希望通过人工智能转变传统领域如法律,这些课程都是你成功的捷径。以下是一个精心策划的高价值课程列表,可以助力你的职业发展,并让你始终处于创新的前沿。 1. 生成性人工智能简介课程: [生成性人工智能简介](https://genai.works

阅读更多
揭开真相!深度探悉DeepSeek AI的十大误区,您被误导了吗?

揭开真相!深度探悉DeepSeek AI的十大误区,您被误导了吗?

在AI军备竞赛中分辨事实与虚构 DeepSeek AI真的是它所宣传的游戏规则改变者,还是仅仅聪明的营销和战略炒作?👀 虽然一些人将其视为AI效率的革命性飞跃,但另一些人则认为它的成功建立在借用(甚至窃取的)创新和可疑的做法之上。传言称,DeepSeek的首席执行官在疫情期间像囤积卫生纸一样囤积Nvidia芯片——这只是冰山一角。 从其声称的550万美元培训预算到使用Open

阅读更多
Type something to search...