Meta推出首个能够处理图像的人工智能开源模型

2024-09-26 06:02:13爱云资讯阅读量:9,138


(爱云资讯消息)在发布上一个大型AI模型仅两个月后,Meta又推出了一项重大更新:其首个能够处理图像和文本的开源模型。

新推出的模型Llama 3.2可以让开发者创建更为先进的AI应用,比如提供实时视频理解的增强现实应用程序;基于内容对图像进行分类的视觉搜索引擎;以及能够总结长篇文本的文档分析工具。

Meta表示,开发者将能够轻松地将新模型投入使用。Meta的生成式AI副总裁阿迈德·阿尔达勒(Ahmad Al-Dahle)在接受外媒采访时表示,开发者只需添加多模态功能,就能展示Llama图像并让其进行交流。

其他AI开发者,包括OpenAI和谷歌,去年已经推出了多模态模型,因此Meta在这里处于追赶地位。随着Meta继续在其Ray-Ban Meta眼镜等硬件上构建AI能力,视觉支持也将发挥关键作用。

Llama 3.2版本包含两个视觉模型(参数量为110亿和900亿)和两个轻量级纯文本模型(参数量为10亿和30亿)。较小的模型是为高通、联发科和其他Arm硬件设计的,Meta显然希望它们能在移动设备上得到应用。

不过,稍微老一点的Llama 3.1版本仍有一席之地:这款模型于今年7月发布,其中包含一个拥有4050亿参数的版本,理论上在生成文本方面将具有更强的能力。

相关文章

人工智能技术

更多>>

人工智能公司

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>
关于我们|联系我们|免责声明|会展频道

冀ICP备2022007386号-1 冀公网安备 13108202000871号

爱云资讯 Copyright©2018-2024