Free
Gemini 2.0 Flash Thinking Mode 是一个实验性模型,旨在生成模型在响应过程中所经历的“思维过程”。因此,Thinking Mode 在其响应中具备比 基础 Gemini 2.0 Flash 模型 更强的推理能力。 ...
One of the highest performing and most popular fine-tunes of Llama 2 13B, with rich descriptions and roleplay. #merge 这些是 MythoMax 13B 的扩展上下文端点。它们可能价格更高。 ...
一个野生的 7B 参数模型,使用来自 mergekit 的新任务算术合并方法合并了多个模型。合并模型列表: NousResearch/Nous-Capybara-7B-V1.9 HuggingFaceH4/zephyr-7b-beta lemonilia/AshhLimaRP-Mistral-7B...
Hermes 3 是一个通用语言模型,相较于 Hermes 2 有许多改进,包括先进的代理能力、更加出色的角色扮演、推理、多轮对话、长上下文连贯性以及各方面的改进。 Hermes 3 405B 是 Llama-3.1 405B 基础模型的前沿级全参数微调,专注于将 LLM 与用户对齐,赋予最终用户强大的引导能力和控制权。 Hermes 3 系列在 Hermes 2 的能力基础上进行了构建和 ...
Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓库](https://git ...
Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在处理多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参见 launch announcement ...
Google最新的多模态模型,支持在文本或聊天提示中使用图像和视频。 针对以下语言任务进行了优化:代码生成 文本生成 文本编辑 问题解决 推荐 信息提取 数据提取或生成 AI代理使用Gemini需遵循Google的Gemin使用条款。 #multimodal ...
Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的差距。该模型在一个庞大的图像-文本对数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉-语言 AI 应用的行业的理想解决方案,例如内容创作、A ...
Liquid的40.3B专家混合模型(MoE)。Liquid基础模型(LFMs)是基于动态系统构建的大型神经网络。 LFMs是通用的AI模型,可以用于建模任何类型的序列数据,包括视频、音频、文本、时间序列和信号。 请查看发布公告以获取基准测试和更多信息。 _这些是免费的、速率限制的端点,适 ...
Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,优化用于高级自然语言处理任务,如对话生成、推理和摘要。该模型采用最新的 transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并且可以适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语言环境中进行文本生成时的准确 ...
Llama 3.2 1B 是一个拥有 10 亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的体积使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可进行微调以支持更多,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样的多语言环境中运行,而不需要大型模型的高计算需求。 点击这里 ...
实验性版本(2024年11月21日) 的 Gemini。 ...
谷歌的 Gemini 1.5 Pro 实验版本。 ...
开发者/公司: 百度研究 关键能力与应用场景: ERNIE-Speed-128K 在实时应用中表现出色,利用知识整合增强语义理解,适用于机器翻译、文本摘要、情感分析和智能问答系统。 特点与改进:知识增强: 集成全面的知识图谱。 模型压缩: 采用剪枝和量化技术提高效率。 动态推理: 根据输入特征动态调整计...
关键能力和使用案例:设计用于资源受限的环境,如移动设备和边缘设备。 适用于智能助手、语音识别以及智能家居中的本地处理。重要特性和改进:轻量级设计: 优化结构,减少参数以降低计算和存储需求。 知识蒸馏: 将大模型的知识转移,以增强小参数模型的性能。 多任务学习: 支持多种自然语言处理任务,包括文本分类、...
开发者/公司: 百度团队 概述: ERNIE-Tiny-8K 是一个轻量级的预训练语言模型,专为中文自然语言处理任务设计,结合了小巧的体积和快速的推理能力,同时具备高性能。 特点与优势:轻量级设计: 减少参数和层数,实现更小的体积和更快的推理,同时保持性能。 知识增强: 继承了 ERNIE 系列的知识整合,提升...
Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,针对对话生成、推理和摘要等高级自然语言处理任务进行了优化。该模型采用最新的 Transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并可适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语 ...
The Llama 90B Vision模型是一款顶级的90亿参数多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,旨在处理最苛刻的基于图像的AI任务。 该模型非常适合需要尖端多模态AI能力的行业,特别是那些处理复杂实时视觉和文本分析 ...
Meta最新发布的模型系列(Llama 3.1)推出了多种规模和版本。这个70B的指令调优版本针对高质量对话用例进行了优化。 与领先的闭源模型相比,它在人工评估中表现出色。 使用该模型须遵循Meta的可接受使用政策。 _这些是[Llama 3.1 70B Instruct]( ...
Qwen2 7B 是一个基于变换器的模型,在语言理解、多语言能力、编码、数学和推理方面表现出色。 它具有 SwiGLU 激活、注意力 QKV 偏置和组查询注意力。它在大量数据上进行了预训练,并进行了监督微调和直接偏好优化。 有关更多详细信息,请参见这篇 博客文章 和 [GitHub 仓 ...
Gemma 2 9B by Google 是一个先进的开源语言模型,在其尺寸类别中设定了效率和性能的新标准。 该模型旨在支持多种任务,使开发者和研究人员能够构建创新应用,同时保持可访问性、安全性和成本效益。 有关更多详细信息,请参阅 发布公告。 ...
一个高性能、行业标准的 7.3B 参数模型,针对速度和上下文长度进行了优化。 Mistral 7B Instruct 有多个版本变体,这里是最新版本。 _这些是 Mistral 7B Instruct 的免费限速端点。输出可能会被缓存。有关速率限制的信息,请阅读 [这里](/docs/limi ...
Phi-3 Mini 是一个强大的 3.8B 参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。该模型是静态的,训练于一个截至 2023 年 10 月的离线数据集。 _这些是免费的、速率限制的端点,适用于 [ ...
Phi-3 128K Medium 是一个强大的 140 亿参数模型,旨在实现高级语言理解、推理和指令跟随。通过监督微调和偏好调整进行优化,它在涉及常识、数学、逻辑推理和代码处理的任务中表现出色。 在发布时,Phi-3 Medium 在轻量级模型中展示了最先进的性能。在 MMLU-Pro 评估中,该模型甚至接近 Llama3 70B 的性能水平。 对于 4k 上下 ...
OpenChat 7B 是一个开源语言模型库,经过“C-RLFT(条件强化学习微调)”的精细调优——这是一种受离线强化学习启发的策略。它是在没有偏好标签的混合质量数据上进行训练的。对于在 Mistral 7B 上微调的 OpenChat,请查看 OpenChat 7B。 对于在 Llama 8B 上微调的...
A wild 7B 参数模型,使用 mergekit 的新 task_arithmetic 合并方法合并了多个模型。合并模型列表: NousResearch/Nous-Capybara-7B-V1.9 HuggingFaceH4/zephyr-7b-beta lemonil...