
Qwen 2.5 Max 与 Deepseek V3:这一开源 Ai 模型如何实现前所未有的性能?
- Rifx.Online
- Large Language Models , Generative AI , AI Research
- 05 Mar, 2025
AI领域正在迅速发展,新发布的Qwen 2.5 Max和Qwen 2.5 VL模型作为强大的开源替代品,正在引起轰动,与顶级闭源解决方案如GPT-4o和Gemini相抗衡。我们将看到所有新发布的模型,如Qwen 2.5 VL系列和百万令牌上下文模型。在这次深入探讨中,我们将探索这些模型如何在性能、多样性和可访问性方面突破界限——同时又是免费的。
Qwen 2.5 Max: 超越巨头的开源冠军
Qwen 2.5 Max 不仅仅是另一个 AI 模型——它是一个游戏规则改变者。基准测试显示,它在实时评估中超越了 DeepSeek v3、GPT-4 和 Claude 3.5 Sonet 等重量级模型,证明了开源模型能够与专有巨头竞争。
关键特性:
- 架构与训练:作为一个专家混合(MoE)模型构建,Qwen 2.5 Max 在 超过20万亿个令牌 上进行了预训练,随后通过监督微调(SFT)和基于人类反馈的强化学习(RLHF)进行了后训练。
- 多功能性:通过 API 或 Qwen Chat 访问,旨在为需要高性能 AI 而无许可费用的开发者和企业提供服务。
- 性能:在推理、编码和多语言任务的排行榜上占据主导地位,使其成为复杂应用的理想选择。
Qwen 2.5 VL: 视觉语言模型革命
Qwen 2.5 VL(视觉语言)变体将AI的视觉理解提升到了新的高度。从解读复杂的图表到控制设备,这就是它脱颖而出的原因:
无与伦比的视觉能力:
- 高级视觉代理:与计算机和智能手机等工具互动,实现自动化(例如,数据录入、应用控制)。
- 长视频处理:分析超过1小时的视频,这一壮举以前仅限于像Gemini这样的模型。
- 精准输出:生成边界框和结构化JSON数据,非常适合金融(发票解析)或电子商务(产品标记)。
基准优势
虽然稍微落后于Qwen 2.5 VL-72B,但在准确性上与Gemini-2 Flash和GPT-4o相匹配,提供了一种成本效益高的视觉任务替代方案。
在较小的模型方面,Qwen2.5-VL-7B在多个任务中优于GPT-4o-mini,而作为边缘AI解决方案的Qwen2.5-VL-3B甚至超越了其前版本Qwen2-VL的7B模型。
模型版本:从移动设备到百万令牌的掌握
Qwen 2.5 满足多样化需求,提供多种尺寸:
- Qwen2.5VL-72B 参数模型:与顶级模型如 LLaMA 3.1 竞争。
- Qwen2.5VL-7B 参数模型:超越 GPT-4o Mini,适合轻量级应用。
- Qwen2.5VL-3B 参数模型:优于 InternVL 2.5,针对 移动设备 进行了优化。
百万令牌上下文突破
- Qwen2.5–7B-Instruct-1M 和 Qwen2.5–14B-Instruct-1M:均支持 100 万个令牌,能够分析大量数据集(例如,冗长的报告、代码库)。
- 本地部署:通过工具如 vLLM、Ollama 离线运行这些模型,或从 Hugging Face 下载模型。
模型性能
让我们开始探索Qwen2.5–1M系列模型在长上下文和短文本任务中的表现。
长上下文任务
他们在Passkey检索任务上评估Qwen2.5–1M模型,使用1百万令牌的上下文长度。评估结果显示,这些模型能够有效地从包含多达1M令牌的文档中检索隐藏信息,仅在7B模型中观察到轻微的不准确性。
短上下文任务
- Qwen2.5–7B-Instruct-1M 和 Qwen2.5–14B-Instruct-1M 在短文本任务上的表现与它们的 128K 版本相似,确保了基本能力没有因增加长序列处理能力而受到影响。
- 与 GPT-4o-mini 相比,Qwen2.5–14B-Instruct-1M 和 Qwen2.5-Turbo 在短文本任务上实现了类似的表现,同时支持的上下文长度是其八倍。
如何通过API密钥访问Qwen 2.5模型
Qwen2.5-Max(其模型名称为 qwen-max-2025-01-25
)的API可用。您可以首先 注册阿里云账户 并激活阿里云模型工作室服务,然后导航到控制台并创建API密钥。
由于Qwen的API与OpenAI-API兼容,我们可以直接遵循使用OpenAI API的常见做法。以下是使用Qwen2.5-Max的Python示例:
from openai import OpenAI
import os
client = OpenAI(
api_key=os.getenv("API_KEY"),
base_url="https://dashscope-intl.aliyuncs.com/compatible-mode/v1",
)
completion = client.chat.completions.create(
model="qwen-max-2025-01-25",
messages=[
{'role': 'system', 'content': 'You are a helpful assistant.'},
{'role': 'user', 'content': 'Which number is larger, 9.11 or 9.8?'}
]
)
print(completion.choices[0].message)
结论:AI的未来是开源的
Qwen 2.5 Max 和 VL 体现了开源模型如何缩小与闭源巨头之间的差距。凭借无与伦比的可扩展性、视觉-语言集成和百万令牌内存,它们非常适合寻求前沿AI而不受供应商锁定的开发人员、研究人员和企业。