ITCOW牛新网 9月26日消息,Meta公司在昨日的官方博文中宣布推出最新的Llama 3.2 AI模型系列,该系列模型以开放和可定制的特点,支持开发者根据需求定制实现边缘人工智能和视觉革命。
Llama 3.2系列模型包括了多模态视觉和轻量级模型,展示了Meta在大型语言模型(LLMs)方面的最新进展。该系列模型适用于多种使用案例,提供强大的功能和广泛的适用性。
模型简介
- Llama 3.2 90B Vision:支持文本和图像输入,是Meta最先进的模型,适合企业级应用,擅长长文本生成、多语言翻译、编码、数学和高级推理,以及图像理解和视觉推理任务。
- Llama 3.2 11B Vision:同样支持文本和图像输入,适合内容创建、对话式AI、语言理解和需要视觉推理的企业应用,在文本摘要、情感分析、代码生成和执行指令方面表现出色。
- Llama 3.2 3B:专为需要低延迟推理和有限计算资源的应用设计,擅长文本摘要、分类和语言翻译任务,非常适合移动AI写作助手和客户服务应用。
- Llama 3.2 1B:系列中最轻量级的模型,适合边缘设备和移动应用程序的检索和摘要,适合个人信息管理和多语言知识检索。
据ITCOW牛新网了解,Llama 3.2 1B和3B模型支持128K标记的上下文长度,在边缘本地运行的设备用例中处于领先地位。这些模型在第一天就支持高通和联发科硬件,并针对Arm处理器进行了优化。
Llama 3.2 11B和90B视觉模型可以替代相应的文本模型,并在图像理解任务方面优于Claude 3 Haiku等闭源模型。
与其他开源多模态模型不同的是,预训练模型和对齐模型都可以使用torchtune针对自定义应用进行微调,并使用torchchat进行本地部署。开发者还可以使用智能助手Meta AI试用这些模型。
Meta将分享首批Llama Stack官方发行版,简化开发人员在不同环境(包括单节点、内部部署、云和设备)中使用Llama模型的方式,实现检索增强生成(RAG)和工具支持型应用的交钥匙部署,并集成安全性。