安防-资讯

智慧城市网 > 资讯 > 科技动态 > 正文

光谷再添一家A I大模型

2023-12-22 08:55:52 武汉经信 点击量:39063
  【智慧城市网 科技动态】近日,华中科技大学软件学院白翔教授领衔的VLRLab团队联合金山办公,发布了多模态大模型——“Monkey”。该模型能够实现对世界的“观察”,对图片进行深入的问答交流和精确描述。
 
  多模态大模型是一类可以同时处理和整合多种感知数据(例如文本、图像、音频等)的AI架构,近年来在众多场景中展现了惊人的能力。
 
  Monkey模型在18个数据集上的实验中表现出色,特别是在图像描述和视觉问答任务方面,超越了众多现有知名的模型如微软的LLAVA、谷歌的PALM-E、阿里的Mplug-owl等。此外,Monkey在文本密集的问答任务中显示出显著的优势,甚至在某些样本上超越了业界公认的领先者——OpenAI的多模态大模型GPT-4V。
 
  Monkey的一个显著特点是其出色的“看图说话”能力。在详细描述任务中,Monkey展现了对图像细节的感知能力,能够察觉到其他多模态大模型所忽略的内容。如对下图进行的文本描述中,Monkey正确地将其识别为埃菲尔铁塔的绘画,并提供了构图和配色方案的详细描述。而对左下角的文字,只有Monkey和GPT-4V能将其准确地识别为作者名。
 
  这样惊人的描述能力是怎么做到的?目前,几乎所有多模态大模型都需要运用网上爬取的图文对数据集,这些数据集只能进行简单的图文描述,无法大分辨率图片的需求。Monkey巧妙利用现有的工具构建了一种多层级的描述生成方法,即通过五个步骤依次对图片进行整体简述、空间定位、模块化识别、描述赋分选取和最终总结,此举可以充分结合不同工具的特性,打出一套威力十足的“组合拳”,大幅度提升描述的准确性和丰富程度。
 
  “一个个工具就好比不同的零件,合理的排列组合才能使其发挥最大作用,”白翔教授说,“我们团队从2003年开始便从事图像识别研究,去年我们又从海外引进了专攻多模态大模型的青年人才,Monkey的最终方案是大家一起反复讨论,尝试了10余种方案后最终确定的。”白翔教授说。
 
  Monkey的另一亮点是能够处理分辨率高达1344×896像素的图像,这是目前其他多模态大模型所能处理的最大尺寸的6倍。这意味着Monkey能对更大尺寸的图片进行更准确、丰富、细致的描述甚至推理。
 
  目前,业内能处理的图片最大分辨率为448×448像素。而想要进一步提升处理能力,需投入十分高昂的算力成本。如何更低成本扩大输入分辨率?该团队骨干青年教师刘禹良向记者介绍,团队采用了创新性的“裁剪”方法,将原始输入图片分割成多个块,每块尺寸小于448×448像素,并为每个块配备了一个“放大镜”,放到合适的位置可以“看”清更多细节。多个“放大镜”同时工作,分别“放大”不同的图片块,就能提取更多局部特征。
 
  “未来,我们希望Monkey更强大,真正成为神通广大的‘孙悟空’!”对这“只”小猴子,白翔教授信心满满。
 
  以光谷为核心承载,目前,武汉已成功推出并商业化落地“紫东太初”多模态大模型、东湖灵境SoulGPT等大模型,已落地应用“星火”大模型、金山办公WPS AI,并推出“武汉.LuoJia”遥感大模型,还有几款行业大模型正在开发。
 
  近期,光谷还发布了“软件十条”,开源平台建设最高补贴3000万元,鼓励各类主体进行重大开源项目软件开发,孕育原创性、爆炸性、轰动性的具有全球影响力的大模型。
 

声明:凡来源标明“智慧城市网”的文章版权均为本站所有,如需转载请务必注明出处,违者本网将追究相关法律责任;所有未标明来源为“智慧城市网”的转载文章目的在于传递更多信息,均不代表本网立场及观点,“智慧城市网”不对这些第三方内容或链接做任何保证或承担任何责任;如涉及版权等问题,请在内容发表之日起一周内与本网联系,否则视为放弃相关权利。

我要评论

文明上网,理性发言。(您还可以输入200个字符)

所有评论仅代表网友意见,与本站立场无关。


资讯视频会议协会

咨询中心

服务咨询QQ交谈

在线客服QQ交谈

媒体合作QQ交谈

展会合作QQ交谈

返回首页