1月26日,阿里云公布多模态大模型研究进展。通义千问视觉理解模型Qwen-VL再次升级,继Plus版本之后,再次推出Max版本,升级版模型拥有更强的视觉推理能力和中文理解能力,能够根据图片识人、答题、创作、写代码,并在多个权威测评中获得佳绩,比肩OpenAI的GPT-4V和谷歌的Gemini Ultra。
LLM(大语言模型)之后,大模型领域的下一个爆点是什么?多模态是当前最具共识的方向。过去半年来,OpenAI、谷歌等争相推出多模态模型,阿里云也在2023年8月发布并开源具备图文理解能力的Qwen-VL模型,Qwen-VL取得了同期远超同等规模通用模型的表现。
视觉是多模态能力中最重要的模态,作为人类感知世界、认知世界的第一感官,视觉传递的信息占据了“五感”信息的80%。通义千问视觉语言模型基于通义千问LLM开发,通过将视觉表示学习模型与LLM对齐,赋予AI理解视觉信息的能力,在大语言模型的“心灵”上开了一扇视觉的“窗”。

相比Qwen-VL,Qwen-VL-Plus和Qwen-VL-Max拥有更强的视觉推理和中文理解能力,整体性能堪比GPT-4V和Gemini Ultra。在MMMU、MathVista等测评中远超业界所有开源模型,在文档分析(DocVQA)、中文图像相关(MM-Bench-CN)等任务上超越GPT-4V,达到世界最佳水平。
基础能力方面,升级版模型能够准确描述和识别图片信息,并且根据图片进行信息推理、扩展创作;具备视觉定位能力,还可针对画面指定区域进行问答。
视觉推理方面,Qwen-VL-Plus和Qwen-VL-Max可以理解流程图等复杂形式图片,可以分析复杂图标,看图做题、看图作文、看图写代码也不在话下。

Qwen-VL-Max看图做题
图像文本处理方面,升级版Qwen-VL的中英文文本识别能力显著提高,支持百万像素以上的高清分辨率图和极端宽高比的图像,既能完整复现密集文本,也能从表格和文档中提取信息。

Qwen-VL-Max复现密集文本
相比LLM,多模态大模型拥有更大的应用想象力。比如,有研究者在探索将多模态大模型与自动驾驶场景结合,为“完全自动驾驶”找到新的技术路径;将多模态模型部署到手机、机器人、智能音箱等端侧设备,让智能设备自动理解物理世界的信息;或者基于多模态模型开发应用,辅助视力障碍群体的日常生活,等等。
目前,Qwen-VL-Plus和Qwen-VL-Max限时免费,用户可以在通义千问官网、通义千问APP直接体验Max版本模型的能力,也可以通过阿里云灵积平台(DashScope)调用模型API。
免责声明
本文转载自网络平台,发布此文仅为传递信息,本文观点不代表本站立场,版权归原作者所有;不代表赞同其观点,不对内容真实性负责,仅供用户参考之用,不构成任何投资、使用等行为的建议。请读者使用之前核实真实性,以及可能存在的风险,任何后果均由读者自行承担。
本网站提供的草稿箱预览链接仅用于内容创作者内部测试及协作沟通,不构成正式发布内容。预览链接包含的图文、数据等内容均为未定稿版本,可能存在错误、遗漏或临时性修改,用户不得将其作为决策依据或对外传播。
因预览链接内容不准确、失效或第三方不当使用导致的直接或间接损失(包括但不限于数据错误、商业风险、法律纠纷等),本网站不承担赔偿责任。用户通过预览链接访问第三方资源(如嵌入的图片、外链等),需自行承担相关风险,本网站不对其安全性、合法性负责。
禁止将预览链接用于商业推广、侵权传播或违反公序良俗的行为,违者需自行承担法律责任。如发现预览链接内容涉及侵权或违规,用户应立即停止使用并通过网站指定渠道提交删除请求。
本声明受中华人民共和国法律管辖,争议解决以本网站所在地法院为管辖法院。本网站保留修改免责声明的权利,修改后的声明将同步更新至预览链接页面,用户继续使用即视为接受新条款。