第五版           <上一版           下一版>           PDF版          手机版

手机版

471 >> 2022年12月30日 星期五  共8版
<上一期 下一期>  按日期查询   往期查询  首页

航空航天学院团队获欧空局空间目标位姿估计比赛第一名


图像数据解算结果

本报讯(通讯员/陈胜朋)中山大学航空航天学院飞行器视觉感知团队(Aircraft Vision Perception, AVP),提出了一种基于神经网络特征点提取及高精度位姿测量的算法框架,于2022年12月13日在欧空局空间目标位姿估计挑战赛上取得排名第一。该算法框架是在团队带头人张小虎教授的指导下,由2020级博士生陈胜朋等完成,相关工作得到了中国人民解放军军事科学院的支持。

空间目标位姿估计挑战赛由欧洲航天局先进概念团队(the Advanced Concepts Team (ACT)of the European Space Agency)和斯坦福大学空间交会对接实验室(the Space Rendezvous Laboratory (SLAB)of Stanford University)于2019年起举办,要求从单个灰度图像中估计航天器的位姿,受到国际相关院校和科研机构的广泛关注,包括斯坦福大学(Stanford University, SLAB)、阿德莱德大学(The University of Adelaide)、洛桑联邦理工学院(EPFL)以及东北大学(Tohoku University, Japan)等研究团队。该挑战赛第一阶段于2019年6月结束,阿德莱德大学研究团队获胜。在此之后,赛事举办方继续开放接收比赛结果并进行公开排名,截至2022年底,共有82个团队提交比赛结果。中山大学航空航天学院飞行器视觉感知团队提出的方法针对空间目标位姿估计,在总体精度(all-score)、姿态精度(orientation-score)、位置精度(position-score)方面展现了充分优势,打破了阿德莱德大学自2019年以来一直保持领先的纪录(https://kelvins.esa.int/satellite-pose-estimation-challenge)。

随着人类航天事业的发展,卫星、空间站等空间目标日益增加,对其在轨状态的监测是保障太空安全的基本要求,而空间目标在轨运行的位置姿态是表征其在轨状态的核心参数。利用视觉感知技术对空间目标进行位姿估计是一种备受关注的方法,众多研究者在致力于提高其精度和可靠性。

中山大学航空航天学院飞行器视觉感知团队此次提出的算法框架针对空间刚性目标的场景,创新修改HRnet网络,相比原纪录保持者阿德莱德大学使用的网络模型,image size和heatmap size更小,不仅很大程度上减少了计算机的运行压力与训练时间,而且测量精度更高。此外,针对空间刚性目标位姿估计,首次提出Levenberg-Marquardt参数化修正模型,进一步提高了位姿测量的精度。该算法框架主要由三部分组成:目标检测网络采用YOLOV7,目标特征点提取网络采用HRnet,位姿估计采用EPnP及Levenberg-Marquardt参数化修正模型。

中山大学航空航天学院飞行器视觉感知团队面向国家航空航天重大型号和工程任务的态势感知需求,深入开展靶场测控、空间监视、在轨服务、深空探测、对地观测、无人机集群等方面的工作,为国家航空航天视觉感知领域提供重点技术支持。团队运动特性数据采集软件已在实际工程中得到应用,助力中国空间站航天员运动特性数据采集。

推荐使用IE8.0以上版本浏览器,1280*1024分辨率浏览
中共中山大学委员会主办 《中山大学报》编辑部出版 国内统一刊号CN44-0815/(G) 网址:http://xiaobao.sysu.edu.cn/
投稿电子邮箱:xiaobao@mail.sysu.edu.cn 编辑部地址:广州市新港西路135号中山大学南校区大钟楼三楼
联系电话:(020)84111991 技术支持:领伍科技
切换版本