中大新聞網廣州12月20日電(通訊員陳勝朋)中山大學航空航天學院飛行器視覺感知團隊(Aircraft Vision Perception, AVP),提出了一種基于神經網絡特征點提取及高精度位姿測量的算法框架,于2022年12月13日在歐空局空間目標位姿估計挑戰賽上取得排名第一。該算法框架是在團隊帶頭人張小虎教授的指導下,由2020級博士生陳勝朋等完成,相關工作得到了中國人民解放軍軍事科學院的支持。
團隊成員
空間目標位姿估計挑戰賽由歐洲航天局先進概念團隊(the Advanced Concepts Team (ACT) of the European Space Agency)和斯坦福大學空間交會對接實驗室(the Space Rendezvous Laboratory (SLAB) of Stanford University)于2019年起舉辦,要求從單個灰度圖像中估計航天器的位姿,受到國際相關院校和科研機構的廣泛關注,包括斯坦福大學(Stanford University, SLAB)、阿德萊德大學(The University of Adelaide)、洛桑聯邦理工學院(EPFL)以及東北大學(Tohoku University, Japan)等研究團隊。該挑戰賽第一階段于2019年6月結束,阿德萊德大學研究團隊獲勝。在此之后,賽事舉辦方繼續開放接收比賽結果并進行公開排名,截至2022年底,共有82個團隊提交比賽結果。中山大學航空航天學院飛行器視覺感知團隊提出的方法針對空間目標位姿估計,在總體精度(all-score)、姿態精度(orientation-score)、位置精度(position-score)方面展現了充分優勢,打破了阿德萊德大學自2019年以來一直保持領先的紀錄(https://kelvins.esa.int/satellite-pose-estimation-challenge)。
中山大學航空航天學院飛行器視覺感知團隊算法成績排名第一
隨著人類航天事業的發展,衛星、空間站等空間目標日益增加,對其在軌狀態的監測是保障太空安全的基本要求,而空間目標在軌運行的位置姿態是表征其在軌狀態的核心參數。利用視覺感知技術對空間目標進行位姿估計是一種備受關注的方法,眾多研究者在致力于提高其精度和可靠性。
中山大學航空航天學院飛行器視覺感知團隊此次提出的算法框架針對空間剛性目標的場景,創新修改HRnet網絡,相比原紀錄保持者阿德萊德大學使用的網絡模型,image size和heatmap size更小,不僅很大程度上減少了計算機的運行壓力與訓練時間,而且測量精度更高。此外,針對空間剛性目標位姿估計,首次提出Levenberg-Marquardt參數化修正模型,進一步提高了位姿測量的精度。該算法框架主要由三部分組成:目標檢測網絡采用YOLOV7,目標特征點提取網絡采用HRnet,位姿估計采用EPnP及Levenberg-Marquardt參數化修正模型。
中山大學航空航天學院飛行器視覺感知團隊與阿德萊德大學精度比較
圖像數據解算結果
中山大學航空航天學院飛行器視覺感知團隊面向國家航空航天重大型號和工程任務的態勢感知需求,深入開展靶場測控、空間監視、在軌服務、深空探測、對地觀測、無人機集群等方面的工作,為國家航空航天視覺感知領域提供重點技術支持。團隊運動特性數據采集軟件已在實際工程中得到應用,助力中國空間站航天員運動特性數據采集。
文稿終審:航空航天學院 溫光浩