論文の概要: Lunar Terrain Relative Navigation Using a Convolutional Neural Network
for Visual Crater Detection
- arxiv url: http://arxiv.org/abs/2007.07702v1
- Date: Wed, 15 Jul 2020 14:19:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 06:37:44.044292
- Title: Lunar Terrain Relative Navigation Using a Convolutional Neural Network
for Visual Crater Detection
- Title(参考訳): 畳み込みニューラルネットワークを用いた視覚クレーター検出のための月面相対航法
- Authors: Lena M. Downes, Ted J. Steiner, Jonathan P. How
- Abstract要約: 本稿では、畳み込みニューラルネットワーク(CNN)と画像処理を用いて、シミュレーションされた宇宙船の位置を追跡するシステムを提案する。
CNNはLunaNetと呼ばれ、シミュレートされたカメラフレームのクレーターを視覚的に検出し、これらの検出は現在の推定された宇宙船の位置の領域にある既知の月のクレーターと一致している。
- 参考スコア(独自算出の注目度): 39.20073801639923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Terrain relative navigation can improve the precision of a spacecraft's
position estimate by detecting global features that act as supplementary
measurements to correct for drift in the inertial navigation system. This paper
presents a system that uses a convolutional neural network (CNN) and image
processing methods to track the location of a simulated spacecraft with an
extended Kalman filter (EKF). The CNN, called LunaNet, visually detects craters
in the simulated camera frame and those detections are matched to known lunar
craters in the region of the current estimated spacecraft position. These
matched craters are treated as features that are tracked using the EKF. LunaNet
enables more reliable position tracking over a simulated trajectory due to its
greater robustness to changes in image brightness and more repeatable crater
detections from frame to frame throughout a trajectory. LunaNet combined with
an EKF produces a decrease of 60% in the average final position estimation
error and a decrease of 25% in average final velocity estimation error compared
to an EKF using an image processing-based crater detection method when tested
on trajectories using images of standard brightness.
- Abstract(参考訳): テランの相対航法は、慣性航法システムにおけるドリフトの補正のために補助的な測定を行うグローバルな特徴を検出することによって、宇宙船の位置推定の精度を向上させることができる。
本稿では、畳み込みニューラルネットワーク(CNN)と画像処理を用いて、拡張カルマンフィルタ(EKF)を用いて、シミュレーションされた宇宙船の位置を追跡するシステムを提案する。
CNNはLunaNetと呼ばれ、シミュレートされたカメラフレームのクレーターを視覚的に検出し、これらの検出は現在の推定された宇宙船の位置にある既知の月のクレーターと一致している。
これらの一致したクレーターは、EKFを用いて追跡される特徴として扱われる。
lunanetは、画像の明るさの変化に対するロバスト性が高く、軌道全体を通してフレームからフレームへのクレーター検出が繰り返し可能であるため、シミュレートされた軌道上でより信頼性の高い位置追跡を可能にする。
EKFと組み合わせたLunaNetは、標準輝度の画像を用いた軌跡試験において、EKFと比較して平均最終位置推定誤差の60%の低下と平均最終速度推定誤差の25%の低下を生じる。
関連論文リスト
- Tightly-Coupled, Speed-aided Monocular Visual-Inertial Localization in Topological Map [0.7373617024876725]
本稿では,トポロジカルマップを用いた車両速度支援単眼視覚慣性位置推定のための新しいアルゴリズムを提案する。
提案システムは、GPSやLiDARのような高価なセンサーに大きく依存する既存の手法の限界に対処することを目的としている。
論文 参考訳(メタデータ) (2024-11-08T11:55:27Z) - Angle Robustness Unmanned Aerial Vehicle Navigation in GNSS-Denied
Scenarios [66.05091704671503]
本稿では、ポイントツーポイントナビゲーションタスクにおける飛行偏差に対処する新しい角度ナビゲーションパラダイムを提案する。
また、Adaptive Feature Enhance Module、Cross-knowledge Attention-guided Module、Robust Task-oriented Head Moduleを含むモデルを提案する。
論文 参考訳(メタデータ) (2024-02-04T08:41:20Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Boosting 3-DoF Ground-to-Satellite Camera Localization Accuracy via
Geometry-Guided Cross-View Transformer [66.82008165644892]
地上レベルの画像と一致/検索衛星画像との相対的な回転と変換を推定することにより、地上カメラの位置と方向の精度を向上させる手法を提案する。
実験の結果,本手法は最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-16T11:52:27Z) - SU-Net: Pose estimation network for non-cooperative spacecraft on-orbit [8.671030148920009]
宇宙船のポーズ推定は、ランデブーやドッキング、破片の除去、軌道上の維持など、多くの軌道上の宇宙ミッションにおいて重要な役割を担っている。
衛星軌道上でのレーダ画像の特徴を分析し,Dense Residual U-shaped Network (DR-U-Net) と呼ばれる新しいディープラーニングニューラルネットワーク構造を提案し,画像の特徴を抽出する。
さらに, DR-U-Netに基づく新しいニューラルネットワーク,すなわち, 宇宙機U字型ネットワーク(SU-Net)を導入し, 非協調宇宙船のエンドツーエンドのポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-02-21T11:14:01Z) - Globally Optimal Event-Based Divergence Estimation for Ventral Landing [55.29096494880328]
イベントセンシングはバイオインスパイアされた飛行誘導と制御システムの主要なコンポーネントである。
本研究では, イベントカメラを用いた腹側着陸時の表面との接触時間予測について検討する。
これは、着陸時に発生する事象の流れから放射光の流れの速度である発散(逆TTC)を推定することで達成される。
我々のコアコントリビューションは、イベントベースの発散推定のための新しいコントラスト最大化定式化と、コントラストを正確に最大化し、最適な発散値を求めるブランチ・アンド・バウンドアルゴリズムである。
論文 参考訳(メタデータ) (2022-09-27T06:00:52Z) - Beyond Cross-view Image Retrieval: Highly Accurate Vehicle Localization
Using Satellite Image [91.29546868637911]
本稿では,地上画像と架空衛星地図とをマッチングすることにより,車載カメラのローカライゼーションの問題に対処する。
鍵となる考え方は、タスクをポーズ推定として定式化し、ニューラルネットベースの最適化によってそれを解くことである。
標準自動運転車のローカライゼーションデータセットの実験により,提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2022-04-10T19:16:58Z) - Autonomous crater detection on asteroids using a fully-convolutional
neural network [1.3750624267664155]
本稿では,完全畳み込みニューラルネットワークU-Netを用いた自律クレーター検出のCeresへの適用について述べる。
U-Netは、LROと手動クレーターカタログによって収集されたデータに基づいて、ムーン・グローバル・モルフォロジー・モザイクの光学画像に基づいて訓練されている。
訓練されたモデルは、Ceresの100、500、1000の画像を使って微調整されている。
論文 参考訳(メタデータ) (2022-04-01T14:34:11Z) - Lunar Rover Localization Using Craters as Landmarks [7.097834331171584]
そこで本研究では,クレーターを用いた月面ローバーの局地化手法として,ライダーやステレオカメラからの3次元点雲データと,モノクラー搭載画像のシェーディングキューを用いた手法を提案する。
本報告では, 搭載ライダーやステレオカメラの3次元点雲データを用いたクレーター検出と, 単眼画像におけるシェーディングキューを用いたクレーター検出の初期結果について述べる。
論文 参考訳(メタデータ) (2022-03-18T17:38:52Z) - A Novel CNN-based Method for Accurate Ship Detection in HR Optical
Remote Sensing Images via Rotated Bounding Box [10.689750889854269]
船舶検出における現在のCNN法に共通する欠点を克服し, 新たなCNNに基づく船舶検出手法を提案する。
配向と他の変数を独立に予測できるが、より効果的に、新しい二分岐回帰ネットワークで予測できる。
船体検出において提案手法が優れていることを示す実験結果が得られた。
論文 参考訳(メタデータ) (2020-04-15T14:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。