論文の概要: Stereo Event-based, 6-DOF Pose Tracking for Uncooperative Spacecraft
- arxiv url: http://arxiv.org/abs/2503.12732v1
- Date: Mon, 17 Mar 2025 01:51:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 12:30:47.363853
- Title: Stereo Event-based, 6-DOF Pose Tracking for Uncooperative Spacecraft
- Title(参考訳): ステレオイベントによる非協力型宇宙機の6自由度追尾
- Authors: Zibin Liu, Banglei Guan, Yang Shang, Yifei Bian, Pengju Sun, Qifeng Yu,
- Abstract要約: イベントカメラには、高ダイナミックレンジ、高時間分解能、低消費電力などの多くの利点がある。
ステレオイベントカメラを用いた非協調宇宙船のラインベースポーズトラッキング手法を提案する。
- 参考スコア(独自算出の注目度): 6.1580246529916725
- License:
- Abstract: Pose tracking of uncooperative spacecraft is an essential technology for space exploration and on-orbit servicing, which remains an open problem. Event cameras possess numerous advantages, such as high dynamic range, high temporal resolution, and low power consumption. These attributes hold the promise of overcoming challenges encountered by conventional cameras, including motion blur and extreme illumination, among others. To address the standard on-orbit observation missions, we propose a line-based pose tracking method for uncooperative spacecraft utilizing a stereo event camera. To begin with, we estimate the wireframe model of uncooperative spacecraft, leveraging the spatio-temporal consistency of stereo event streams for line-based reconstruction. Then, we develop an effective strategy to establish correspondences between events and projected lines of uncooperative spacecraft. Using these correspondences, we formulate the pose tracking as a continuous optimization process over 6-DOF motion parameters, achieved by minimizing event-line distances. Moreover, we construct a stereo event-based uncooperative spacecraft motion dataset, encompassing both simulated and real events. The proposed method is quantitatively evaluated through experiments conducted on our self-collected dataset, demonstrating an improvement in terms of effectiveness and accuracy over competing methods. The code will be open-sourced at https://github.com/Zibin6/SE6PT.
- Abstract(参考訳): 非協力的な宇宙船の追跡は、宇宙探査と軌道上でのサーベイリングに欠かせない技術であり、これは未解決の問題である。
イベントカメラには、高ダイナミックレンジ、高時間分解能、低消費電力などの多くの利点がある。
これらの特徴は、動きのぼやけや極端な照明など、従来のカメラが直面する課題を克服する可能性を秘めている。
軌道上での標準的な観測ミッションに対処するために,ステレオイベントカメラを用いた非協調宇宙船のラインベースポーズトラッキング手法を提案する。
まず,ステレオイベントストリームの時空間的一貫性を利用して,非協調宇宙船のワイヤフレームモデルを推定する。
そこで我々は,非協調宇宙船のイベントと投射線との対応性を確立するための効果的な戦略を開発した。
これらの対応を用いて、イベントライン距離を最小化して達成した6-DOF運動パラメータに対するポーズ追跡を連続的な最適化プロセスとして定式化する。
さらに、シミュレーションと実イベントの両方を含むステレオイベントベースの非協調宇宙船運動データセットを構築した。
提案手法は, 自己収集データセットを用いた実験により定量的に評価され, 競合する手法よりも有効性と精度が向上したことを示す。
コードはhttps://github.com/Zibin6/SE6PTでオープンソース化される。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - A Cross-Scene Benchmark for Open-World Drone Active Tracking [54.235808061746525]
Drone Visual Active Trackingは、視覚的な観察に基づいてモーションシステムを制御することで、対象物を自律的に追跡することを目的としている。
DATと呼ばれるオープンワールドドローンアクティブトラッキングのためのクロスシーンクロスドメインベンチマークを提案する。
また、R-VATと呼ばれる強化学習に基づくドローン追跡手法を提案する。
論文 参考訳(メタデータ) (2024-12-01T09:37:46Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースビジュアル・オドメトリーは、追跡とサブプロブレムのマッピング(典型的には並列)を解決することを目的としている
直接パイプライン上に,イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
結果として得られるシステムは、現代の高解像度のイベントカメラでうまくスケールする。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Event-Free Moving Object Segmentation from Moving Ego Vehicle [88.33470650615162]
動的シーンにおけるオブジェクトセグメンテーション(MOS)の移動は、自律運転において重要で困難だが、未調査の研究テーマである。
ほとんどのセグメンテーション法は、光学フローマップから得られるモーションキューを利用する。
我々は,光学的フローに頼らずにリッチなモーションキューを提供する,より優れた映像理解のためのイベントカメラを活用することを提案する。
論文 参考訳(メタデータ) (2023-04-28T23:43:10Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning [1.212848031108815]
DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
論文 参考訳(メタデータ) (2021-12-18T06:12:24Z) - Tracking 6-DoF Object Motion from Events and Frames [0.0]
本研究では,6自由度(6-DoF)物体の動き追跡のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T12:39:38Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。