自学内容网 自学内容网

Meta Llama 3.2发布:小型文本模型与多模态视觉能力,AI的未来已来!

Meta发布Llama 3.2系列:多模态与小型文本模型引领AI新纪元

2024年9月26日,Meta公司今日宣布推出Llama 3.2模型系列,这是其在人工智能领域的又一重大突破。Llama 3.2系列包括多模态视觉模型和小型文本模型,共计10个开放权重模型,旨在为移动设备和边缘计算提供更多选择,同时解锁了期待已久的视觉能力。

在这里插入图片描述

多模态能力的突破

Llama 3.2 Vision模型为Llama家族带来了多模态能力,提供了11B和90B两种尺寸的模型。11B版本适合在消费级GPU上高效部署和开发,而90B版本则适用于大规模应用。90B版本中,有18B专门用于新的视觉功能,并且在视觉能力上超越了所有闭源模型。这些模型都有基础模型和指令微调变体,以及支持视觉的Llama Guard 3新版本,可以对模型输入和输出进行分类,包括检测有害的多模态提示或助手回复。
加粗样式

小型文本模型的登场

Llama 3.2还推出了可在设备上运行的小型文本语言模型,包括1B和3B两种新尺寸,每种都有基础和指令变体。这些模型支持多语言,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语,支持128k token的长上下文,并且在IFEval基准测试上,3B模型的表现与8B模型相当。

技术细节

Llama 3.2 Vision模型的架构基于Llama 3.1 LLM与视觉塔和图像适配器的组合。11B Vision模型使用Llama 3.1 8B作为文本模型,而90B Vision模型使用Llama 3.1 70B作为文本模型。文本模型在训练视觉模型时被冻结以保持文本性能。这些模型在包含60亿图像-文本对的大规模数据集上进行了训练。

小型文本模型遵循与Llama 3.1相同的架构,使用高达9万亿token进行训练,同样支持128k token的长上下文。

性能卓越

Meta公布的基准测试结果显示,Llama 3.2 Vision模型在多个任务上表现出色。在MMMU(验证集)中,11B模型达到50.7%,90B模型达到60.3%。在VQAv2(测试集)中,11B模型达到75.2%,90B模型达到78.1%。在DocVQA(测试集)中,11B模型达到88.4%,90B模型达到90.1%。

小型文本模型的性能同样令人惊喜。在Open LLM Leaderboard评估中,3B模型在某些任务上甚至接近8B模型的表现。

许可变更

值得注意的是,Llama 3.2的许可条款有一项重要变更:欧盟境内的个人或公司不被授予使用Llama 3.2多模态模型的许可权利。这一限制不适用于最终用户,因此开发者仍可使用这些模型构建面向全球的产品。

生态系统支持

Hugging Face生态系统为Llama 3.2提供了全面支持,包括模型权重已上传至Hub,Transformers和TGI集成了Vision模型,支持通过Inference Endpoints、Google Cloud、Amazon SageMaker和DELL Enterprise Hub进行推理和部署。此外,还可以使用TRL对文本模型进行聊天和微调,Vision模型的微调支持也已添加到TRL中。

Llama家族的重要里程碑

Llama 3.2的发布标志着Meta在大语言模型领域又迈出了重要一步。多模态能力的加入和小型高效模型的推出,为研究人员和开发者提供了更多可能性。

关于Meta

Meta是一家全球性的技术公司,致力于通过创新的技术和产品连接人们,并推动人工智能技术的发展。公司不断探索新的计算平台,以提供更丰富的交互体验。

在这里插入图片描述


原文地址:https://blog.csdn.net/luwei42768/article/details/142547600

免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!