論文の概要: Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2112.09854v1
- Date: Sat, 18 Dec 2021 06:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 16:38:46.313430
- Title: Space Non-cooperative Object Active Tracking with Deep Reinforcement
Learning
- Title(参考訳): 深層強化学習による空間非協調オブジェクトアクティブトラッキング
- Authors: Dong Zhou, Guanghui Sun, Wenxiao Lei
- Abstract要約: DRLAVTと命名されたDQNアルゴリズムに基づくエンドツーエンドのアクティブなトラッキング手法を提案する。
追尾宇宙船のアプローチを、色やRGBD画像にのみ依存した任意の空間の非協力目標に導くことができる。
位置ベースのビジュアルサーボベースラインアルゴリズムでは、最先端の2DモノクロトラッカーであるSiamRPNをはるかに上回っている。
- 参考スコア(独自算出の注目度): 1.212848031108815
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Active visual tracking of space non-cooperative object is significant for
future intelligent spacecraft to realise space debris removal, asteroid
exploration, autonomous rendezvous and docking. However, existing works often
consider this task into different subproblems (e.g. image preprocessing,
feature extraction and matching, position and pose estimation, control law
design) and optimize each module alone, which are trivial and sub-optimal. To
this end, we propose an end-to-end active visual tracking method based on DQN
algorithm, named as DRLAVT. It can guide the chasing spacecraft approach to
arbitrary space non-cooperative target merely relied on color or RGBD images,
which significantly outperforms position-based visual servoing baseline
algorithm that adopts state-of-the-art 2D monocular tracker, SiamRPN. Extensive
experiments implemented with diverse network architectures, different
perturbations and multiple targets demonstrate the advancement and robustness
of DRLAVT. In addition, We further prove our method indeed learnt the motion
patterns of target with deep reinforcement learning through hundreds of
trial-and-errors.
- Abstract(参考訳): 宇宙デブリの除去、小惑星探査、自律ランデブー、ドッキングを実現するための、将来の知的宇宙船にとって、宇宙の非協力物体のアクティブな視覚的追跡は重要である。
しかし、既存の作品では、このタスクを異なる部分問題(例えば、画像の前処理、特徴抽出とマッチング、位置とポーズの推定、制御法設計)に分類し、各モジュールのみを最適化する。
そこで本研究では,DRLAVTと命名されたDQNアルゴリズムに基づく,エンドツーエンドのアクティブトラッキング手法を提案する。
これはカラー画像やrgbd画像のみに依存しており、最先端の2dモノクロトラッカーであるsiamrpnを採用する位置ベースの視覚サーボベースラインアルゴリズムを著しく上回っている。
多様なネットワークアーキテクチャ、異なる摂動、複数のターゲットで実施された大規模な実験は、DRLAVTの進歩と堅牢性を示している。
さらに,本手法は,数百の試行錯誤を通じ,深い強化学習を行い,ターゲットの動作パターンを実際に学習することを証明する。
関連論文リスト
- Vision-Based Detection of Uncooperative Targets and Components on Small Satellites [6.999319023465766]
宇宙デブリと不活性衛星は、運用宇宙船の安全性と完全性に脅威をもたらす。
コンピュータビジョンモデルの最近の進歩は、そのような非協調的な目標を追跡する既存の方法を改善するために利用することができる。
本稿では,これらの物体を学習とコンピュータビジョンを用いて識別・監視する自律検出モデルを提案する。
論文 参考訳(メタデータ) (2024-08-22T02:48:13Z) - Leveraging Neural Radiance Fields for Pose Estimation of an Unknown Space Object during Proximity Operations [14.624172952608653]
本稿では、未知のターゲットに「オフ・ザ・シェルフ」宇宙船のポーズ推定装置を適用可能な新しい手法を提案する。
対象画像のスパースコレクションを用いてNeRFモデルをトレーニングし,視点と照明の両面で多様な大きなデータセットを生成する。
本手法は,スパース画像の集合から,市販の宇宙船のポーズ推定ネットワークの訓練に有効であることが実証された。
論文 参考訳(メタデータ) (2024-05-21T12:34:03Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Performance Study of YOLOv5 and Faster R-CNN for Autonomous Navigation
around Non-Cooperative Targets [0.0]
本稿では,カメラと機械学習アルゴリズムを組み合わせることで,相対的なナビゲーションを実現する方法について論じる。
高速領域ベース畳み込みニューラルネットワーク(R-CNN)とYou Only Look Once(YOLOv5)の2つのディープラーニングに基づくオブジェクト検出アルゴリズムの性能を検証した。
本稿では, 特徴認識アルゴリズムの実装と, 宇宙船誘導航法制御システムへの統合に向けての道筋について論じる。
論文 参考訳(メタデータ) (2023-01-22T04:53:38Z) - DiffSkill: Skill Abstraction from Differentiable Physics for Deformable
Object Manipulations with Tools [96.38972082580294]
DiffSkillは、変形可能なオブジェクト操作タスクを解決するために、スキル抽象化に微分可能な物理シミュレータを使用する新しいフレームワークである。
特に、勾配に基づくシミュレーターから個々のツールを用いて、まず短距離のスキルを得る。
次に、RGBD画像を入力として取り込む実演軌跡から、ニューラルネットワークの抽象体を学習する。
論文 参考訳(メタデータ) (2022-03-31T17:59:38Z) - SimIPU: Simple 2D Image and 3D Point Cloud Unsupervised Pre-Training for
Spatial-Aware Visual Representations [85.38562724999898]
我々はSimIPUと呼ばれる2Dイメージと3Dポイントクラウドの教師なし事前学習戦略を提案する。
具体的には、モーダル内空間認識モジュールとモーダル間特徴相互作用モジュールからなるマルチモーダルコントラスト学習フレームワークを開発する。
我々の知る限りでは、屋外マルチモーダルデータセットに対する対照的な学習事前学習戦略を探求する最初の研究である。
論文 参考訳(メタデータ) (2021-12-09T03:27:00Z) - Multi-Object Tracking with Deep Learning Ensemble for Unmanned Aerial
System Applications [0.0]
多目的追跡(MOT)は、軍事防衛分野における状況認識の重要な構成要素である。
本稿では,リアルタイムな状況下での騒音に対応するために,頑健なオブジェクト追跡アーキテクチャを提案する。
本稿では,遅延空間における実体軌道の予測にシーケンス・ツー・シーケンス・アーキテクチャを用いる,Deep Extended Kalman Filter (DeepEKF) と呼ばれるキネマティックな予測モデルを提案する。
論文 参考訳(メタデータ) (2021-10-05T13:50:38Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - LSPnet: A 2D Localization-oriented Spacecraft Pose Estimation Neural
Network [10.6872574091924]
本研究は,非協調宇宙船の姿勢を推定するために,畳み込みニューラルネットワーク(CNN)を用いた新しい手法を探索する。
他のアプローチとは対照的に、提案されたCNNは3D情報を必要とせずにポーズを直接取り消す。
この実験は、非協力的な宇宙船のポーズ推定における最先端技術とどのように競合するかを示す。
論文 参考訳(メタデータ) (2021-04-19T12:46:05Z) - Latent Space Roadmap for Visual Action Planning of Deformable and Rigid
Object Manipulation [74.88956115580388]
プランニングは、イメージを埋め込んだ低次元の潜在状態空間で行われる。
我々のフレームワークは2つの主要なコンポーネントで構成されており、画像のシーケンスとして視覚的な計画を生成するビジュアル・フォレスト・モジュール(VFM)と、それら間のアクションを予測するアクション・プロポーザル・ネットワーク(APN)である。
論文 参考訳(メタデータ) (2020-03-19T18:43:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。