移动版

当前位置:智慧城市网资讯中心企业关注

新发产品更多
安光所在大场景下基于视觉的多机器人全局定位方面取得新进展
2025年03月26日 11:06:17来源:安徽光学精密机械研究所点击量:31896
导读在智能机器人领域,基于视觉的同步定位与地图构建技术(SLAM)因视觉传感器具有成本低、部署灵活、信息量丰富等优势,成为行业研究热点。
  【智慧城市网 企业关注】近日,中国科学院合肥物质科学研究院安光所光电子中心计算机视觉团队研发出适用于大场景的多机器人协同定位新技术。相关研究成果发表在机器人领域国际Top期刊IEEE Robotics and Automation Letters (IEEE RA-L)上。
 
  在智能机器人领域,基于视觉的同步定位与地图构建技术(SLAM)因视觉传感器具有成本低、部署灵活、信息量丰富等优势,成为行业研究热点。在大规模环境中,通过共享地图数据实现协同作业可大幅提升工作效率。然而,实现多机器人系统中不同机器人间的全局定位(Multi-Robot Global Localization, MR-GL)依然面临诸多挑战。特别是在机器人初始位姿未知、环境动态变化剧烈的情况下,不同机器人间视角差异造成的数据数据匹配困难,动态场景对算法的实时性与鲁棒性(一个系统在面临着内部结构或外部环境的改变时也能够维持其功能稳定运行的能力)提出了更高要求。此外,如何在保障精度的同时快速完成多机协同定位,是影响协同任务能否成功执行的关键因素之一。
 
  针对上述难题,研究团队创新性地提出了一种融合语义与几何三重约束的图匹配多机器人全局定位方法——SGT-MGL。该方法首先提取场景中对象的语义与几何特征,并通过拓扑结构刻画其空间分布关系。为增强对象的区分性,研究人员基于语义信息与相对距离构建了三角形描述符,进一步提升了特征辨识度。考虑到语义与几何信息的互补特性,创新性提出了一种融合语义标签、空间夹角及相对距离信息的三维直方图描述符,有效提升了三角形描述符的稳定性与不变性。为进一步降低噪声干扰,研究团队采用"由粗到精"的匹配策略,提出了一种由全局几何结构筛选关键点位,并结合局部与全局图匹配方法,实现了多机器人间的高精度六自由度(6-DoF)(三维位置+三维朝向)姿态估计。实验结果表明,该方法在提升全局定位精度方面具有显著优势。
 
  实验数据显示,该技术在复杂动态环境中的定位精度较传统方法提升显著。其创新性的三重约束机制,既保证了算法在视角差异下的鲁棒性,又通过分级处理兼顾了运算效率,为未来智能医院、智能工厂等场景的多机器人协同作业提供了关键技术支撑。
 
  该项工作的第一作者为王凡博士后,通讯作者为张文副研究员和刘勇研究员。本研究得到了国家自然科学基金、合肥物质院院长基金和国家重点研发计划的支持。
 
所提出的多机器人全局定位方法在KITTI08序列数据集上的应用
关键词 智能机器人视觉传感器
相关阅读更多
版权与免责声明:

凡本网注明“来源:智慧城市网”的所有作品,均为浙江兴旺宝明通网络有限公司-智慧城市网合法拥有版权或有权使用的作品,未经本网授权不得转载、摘编或利用其它方式使用上述作品。已经本网授权使用作品的,应在授权范围内使用,并注明“来源:智慧城市网”。违反上述声明者,本网将追究其相关法律责任。

本网转载并注明自其它来源(非智慧城市网)的作品,目的在于传递更多信息,并不代表本网赞同其观点或和对其真实性负责,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品第一来源,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

正在阅读:安光所在大场景下基于视觉的多机器人全局定位方面取得新进展
我要投稿
  • 投稿请发送邮件至:(邮件标题请备注“投稿”)afzhan@foxmail.com
  • 联系电话0571-87756384
智慧城市行业“互联网+”服务平台
智慧城市网APP

功能丰富 实时交流

智慧城市网小程序

订阅获取更多服务

微信公众号

关注我们

抖音

智慧城市网

抖音号:afzhan

打开抖音 搜索页扫一扫
i

视频号

AF智慧城市网

视频号ID:sphF7DOyrojJnp8

打开微信扫码关注视频号

小红书

智慧城市

小红书ID:2537047074

打开小红书 扫一扫关注
反馈