論文の概要: A Neuromorphic Vision-Based Measurement for Robust Relative Localization
in Future Space Exploration Missions
- arxiv url: http://arxiv.org/abs/2206.11541v1
- Date: Thu, 23 Jun 2022 08:39:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-24 13:38:25.095089
- Title: A Neuromorphic Vision-Based Measurement for Robust Relative Localization
in Future Space Exploration Missions
- Title(参考訳): 将来の宇宙探査ミッションにおけるロバスト相対位置のニューロモルフィック・ビジョンに基づく測定
- Authors: Mohammed Salah, Mohammed Chehadah, Muhammed Humais, Mohammed Wahbah,
Abdulla Ayyad, Rana Azzam, Lakmal Senevirante, and Yahya Zweiri
- Abstract要約: 本研究では,ニューロモルフィック・ビジョン・ベース・計測(NVBM)と慣性測定の融合に基づくロバストな相対的局所化システムを提案する。
提案システムは様々な実験でテストされ、精度と範囲において最先端のアプローチよりも優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Space exploration has witnessed revolutionary changes upon landing of the
Perseverance Rover on the Martian surface and demonstrating the first flight
beyond Earth by the Mars helicopter, Ingenuity. During their mission on Mars,
Perseverance Rover and Ingenuity collaboratively explore the Martian surface,
where Ingenuity scouts terrain information for rover's safe traversability.
Hence, determining the relative poses between both the platforms is of
paramount importance for the success of this mission. Driven by this necessity,
this work proposes a robust relative localization system based on a fusion of
neuromorphic vision-based measurements (NVBMs) and inertial measurements. The
emergence of neuromorphic vision triggered a paradigm shift in the computer
vision community, due to its unique working principle delineated with
asynchronous events triggered by variations of light intensities occurring in
the scene. This implies that observations cannot be acquired in static scenes
due to illumination invariance. To circumvent this limitation, high frequency
active landmarks are inserted in the scene to guarantee consistent event
firing. These landmarks are adopted as salient features to facilitate relative
localization. A novel event-based landmark identification algorithm using
Gaussian Mixture Models (GMM) is developed for matching the landmarks
correspondences formulating our NVBMs. The NVBMs are fused with inertial
measurements in proposed state estimators, landmark tracking Kalman filter
(LTKF) and translation decoupled Kalman filter (TDKF) for landmark tracking and
relative localization, respectively. The proposed system was tested in a
variety of experiments and has outperformed state-of-the-art approaches in
accuracy and range.
- Abstract(参考訳): 宇宙探査では、火星表面へのパーセヴァンスローバーの着陸や、火星のヘリコプター「インジェニュティ」による初の地球外飛行の実証など、革命的な変化が見られた。
火星でのミッションの間、Perseverance RoverとIngenuityは共同で火星表面を探索し、Ingenuityはローバーの安全な移動性のために地形情報を偵察する。
したがって、両プラットフォーム間の相対的なポーズを決定することは、このミッションの成功にとって最重要事項である。
そこで本研究では,nvbms(neuromorphic vision-based measurement)と慣性計測の融合に基づくロバストな相対的位置推定システムを提案する。
ニューロモルフィック視覚の出現は、シーンで発生する光強度の変動によって引き起こされる非同期イベントに起因した、ユニークな動作原理によって、コンピュータビジョンコミュニティのパラダイムシフトを引き起こした。
これは、照明のばらつきのため、静的な場面では観測が得られないことを意味する。
この制限を回避するため、高頻度のアクティブなランドマークがシーンに挿入され、一貫したイベントの発射が保証される。
これらのランドマークは、相対的ローカライゼーションを容易にするために、突出した特徴として採用されている。
ガウス混合モデル(GMM)を用いた新しい事象に基づくランドマーク識別アルゴリズムを開発し,NVBMを定式化したランドマーク対応をマッチングする。
NVBMは、提案された状態推定器、ランドマーク追跡カルマンフィルタ(LTKF)および翻訳分離カルマンフィルタ(TDKF)でそれぞれ慣性測定と融合し、ランドマーク追跡と相対的な局所化を行う。
提案システムは様々な実験でテストされ、精度と範囲において最先端のアプローチよりも優れていた。
関連論文リスト
- Vision-based Geo-Localization of Future Mars Rotorcraft in Challenging Illumination Conditions [4.6901215692204286]
Geo-LoFTRは画像登録のための幾何学支援ディープラーニングモデルである。
提案方式は, 照明やスケールの変動による局所化精度において, 従来のMbLよりも優れていた。
論文 参考訳(メタデータ) (2025-02-13T22:10:21Z) - Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - MARs: Multi-view Attention Regularizations for Patch-based Feature Recognition of Space Terrain [4.87717454493713]
現在のアプローチは、事前収集されたパッチベースの機能とテンプレートマッチングに依存している。
マルチビューアテンション・レギュラライゼーション(MAR)を導入し,複数の特徴ビューにまたがるチャネルと空間的注意を制約する。
地形特徴認識性能は85%以上向上した。
論文 参考訳(メタデータ) (2024-10-07T16:41:45Z) - Structure-Invariant Range-Visual-Inertial Odometry [17.47284320862407]
この研究は、火星科学ヘリコプターのミッション用に設計された新しいレンジ・ヴィジュアル・慣性オドメトリーシステムを導入している。
我々のシステムは、一貫した範囲情報を視覚的および慣性計測と融合することにより、最先端のxVIOフレームワークを拡張している。
提案手法は, 厳密なミッション条件を満たす地形相対速度を推定する。
論文 参考訳(メタデータ) (2024-09-06T21:49:10Z) - Unsupervised Landmark Discovery Using Consistency Guided Bottleneck [63.624186864522315]
画像再構成に基づくパイプラインに一貫性のあるボトルネックを導入する。
本稿では,画像間のランドマーク対応を形成することによって,擬似スーパービジョンを得る手法を提案する。
この一貫性は、アダプティブ・ヒートマップの生成において発見されたランドマークの不確かさを変調する。
論文 参考訳(メタデータ) (2023-09-19T10:57:53Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Efficient Real-time Smoke Filtration with 3D LiDAR for Search and Rescue
with Autonomous Heterogeneous Robotic Systems [56.838297900091426]
スモークとダストは、搭載された知覚システムに依存するため、あらゆる移動ロボットプラットフォームの性能に影響を与える。
本稿では,重みと空間情報に基づく新しいモジュラー計算フィルタを提案する。
論文 参考訳(メタデータ) (2023-08-14T16:48:57Z) - Exploring Event Camera-based Odometry for Planetary Robots [39.46226359115717]
イベントカメラは、将来の火星のヘリコプターミッションで視覚に基づく探査を可能にするためのセンサーになる見込みだ。
既存のイベントベースのビジュアル慣性オドメトリー(VIO)アルゴリズムは、高いトラッキングエラーに悩まされるか、脆弱である。
EKLT-VIOは,最先端のイベントベースとフィルタベースのバックエンドを組み合わせることで,両方の制約に対処する。
論文 参考訳(メタデータ) (2022-04-12T15:19:50Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。