Meta: Llama 3.1 8B Instruct
- 128K Context
- 0.055/M Input Tokens
- 0.055/M Output Tokens
- Meta llama
- Text 2 text
- 23 Jul, 2024
Meta最新发布的模型类别(Llama 3.1)推出了多种尺寸和版本。这个70B的指令调优版本针对高质量对话用例进行了优化。 在人工评估中,它与领先的闭源模型相比表现出色。 使用该模型需遵循Meta的可接受使用政策。 ...
Llama 3.2 11B Vision 是一个具有 110 亿参数的多模态模型,旨在处理结合视觉和文本数据的任务。它在图像描述和视觉问答等任务中表现出色,弥合了语言生成与视觉推理之间的鸿沟。该模型在大量图像-文本对的数据集上进行了预训练,能够在复杂的高精度图像分析中表现良好。 它将视觉理解与语言处理相结合的能力,使其成为需要全面视觉语言 AI 应用的行业的理想解决 ...
Llama 3.2 1B 是一个拥有10亿参数的语言模型,专注于高效执行自然语言任务,如摘要、对话和多语言文本分析。其较小的规模使其能够在低资源环境中高效运行,同时保持强大的任务性能。 支持八种核心语言,并可针对更多语言进行微调,Llama 1.3B 非常适合寻求轻量级但强大的 AI 解决方案的企业或开发者,这些解决方案能够在多样化的多语言环境中运行,而不需要大型模 ...
Llama 3.2 3B 是一个拥有 30 亿参数的多语言大型语言模型,针对对话生成、推理和摘要等高级自然语言处理任务进行了优化。它采用最新的 transformer 架构,支持包括英语、西班牙语和印地语在内的八种语言,并且可以适应其他语言。 Llama 3.2B 模型在 9 万亿个标记上进行训练,擅长遵循指令、复杂推理和工具使用。其平衡的性能使其非常适合需要在多语 ...
Llama 90B Vision模型是一款顶级的90亿参数多模态模型,旨在应对最具挑战性的视觉推理和语言任务。它在图像描述、视觉问答和高级图像-文本理解方面提供无与伦比的准确性。该模型在庞大的多模态数据集上进行预训练,并通过人类反馈进行微调,专为处理最苛刻的基于图像的AI任务而设计。 此模型非常适合需要尖端多模态AI能力的行业,尤其是那些处理复杂实时视觉和文本分析的 ...