論文の概要: Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions
- arxiv url: http://arxiv.org/abs/2109.05509v1
- Date: Sun, 12 Sep 2021 12:52:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:23:32.682925
- Title: Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions
- Title(参考訳): 惑星ミッションにおける飛行ロボットのロバストな単眼視計測に向けて
- Authors: Martin Wudenka and Marcus G. M\"uller and Nikolaus Demmel and Armin
Wedler and Rudolph Triebel and Daniel Cremers and Wolfgang St\"urzl
- Abstract要約: 火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 49.79068659889639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the future, extraterrestrial expeditions will not only be conducted by
rovers but also by flying robots. The technical demonstration drone Ingenuity,
that just landed on Mars, will mark the beginning of a new era of exploration
unhindered by terrain traversability. Robust self-localization is crucial for
that. Cameras that are lightweight, cheap and information-rich sensors are
already used to estimate the ego-motion of vehicles. However, methods proven to
work in man-made environments cannot simply be deployed on other planets. The
highly repetitive textures present in the wastelands of Mars pose a huge
challenge to descriptor matching based approaches.
In this paper, we present an advanced robust monocular odometry algorithm
that uses efficient optical flow tracking to obtain feature correspondences
between images and a refined keyframe selection criterion. In contrast to most
other approaches, our framework can also handle rotation-only motions that are
particularly challenging for monocular odometry systems. Furthermore, we
present a novel approach to estimate the current risk of scale drift based on a
principal component analysis of the relative translation information matrix.
This way we obtain an implicit measure of uncertainty. We evaluate the validity
of our approach on all sequences of a challenging real-world dataset captured
in a Mars-like environment and show that it outperforms state-of-the-art
approaches.
- Abstract(参考訳): 将来的には、地球外探査はローバーだけでなく飛行ロボットも行うようになるでしょう。
火星に着陸したばかりのドローン「Ingenuity」は、地形の移動に支障を来さない新時代の探検の始まりを告げる。
それにはロバストな自己ローカライゼーションが不可欠です。
軽量で安価で情報に富んだカメラは、すでに車両の自走運動を推定するために使われている。
しかし、人工の環境で働くことが証明された方法は、単に他の惑星に配備することができない。
火星の荒地に存在する非常に反復的なテクスチャは、マッチングに基づくアプローチを記述するための大きな課題となる。
本稿では,画像間の特徴対応と改良されたキーフレーム選択基準を得るために,効率的な光フロー追跡を用いたロバスト単眼オドメトリーアルゴリズムを提案する。
他のほとんどのアプローチとは対照的に、我々のフレームワークは、特にモノクロオドメトリーシステムでは難しい回転のみの運動を処理できる。
さらに, 相対翻訳情報行列の主成分分析に基づいて, スケールドリフトの現在のリスクを推定する新しい手法を提案する。
このようにして、明らかな不確実性の尺度を得る。
火星のような環境で得られた挑戦的な実世界のデータセットの全てのシーケンスに対する我々のアプローチの有効性を評価し、最先端のアプローチよりも優れていることを示す。
関連論文リスト
- MARs: Multi-view Attention Regularizations for Patch-based Feature Recognition of Space Terrain [4.87717454493713]
現在のアプローチは、事前収集されたパッチベースの機能とテンプレートマッチングに依存している。
マルチビューアテンション・レギュラライゼーション(MAR)を導入し,複数の特徴ビューにまたがるチャネルと空間的注意を制約する。
地形特徴認識性能は85%以上向上した。
論文 参考訳(メタデータ) (2024-10-07T16:41:45Z) - Structure-Invariant Range-Visual-Inertial Odometry [17.47284320862407]
この研究は、火星科学ヘリコプターのミッション用に設計された新しいレンジ・ヴィジュアル・慣性オドメトリーシステムを導入している。
我々のシステムは、一貫した範囲情報を視覚的および慣性計測と融合することにより、最先端のxVIOフレームワークを拡張している。
提案手法は, 厳密なミッション条件を満たす地形相対速度を推定する。
論文 参考訳(メタデータ) (2024-09-06T21:49:10Z) - You Only Crash Once: Improved Object Detection for Real-Time,
Sim-to-Real Hazardous Terrain Detection and Classification for Autonomous
Planetary Landings [7.201292864036088]
危険地を検出するための安価で効果的な方法は、視覚カメラを使用することである。
視覚的危険地形検出の伝統的な技術は、テンプレートマッチングと事前構築されたハザードマップへの登録に焦点を当てている。
深層学習に基づく視覚的危険地形検出と分類技術であるYou Only Crash Once (YOCO)を紹介した。
論文 参考訳(メタデータ) (2023-03-08T21:11:51Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - 6D Camera Relocalization in Visually Ambiguous Extreme Environments [79.68352435957266]
本研究では,深海や地球外地形などの極端な環境下で得られた画像の列から,カメラのポーズを確実に推定する手法を提案する。
本手法は,室内ベンチマーク (7-Scenes データセット) における最先端手法と同等の性能を20%のトレーニングデータで達成する。
論文 参考訳(メタデータ) (2022-07-13T16:40:02Z) - A Neuromorphic Vision-Based Measurement for Robust Relative Localization
in Future Space Exploration Missions [0.0]
本研究では,ニューロモルフィック・ビジョン・ベース・計測(NVBM)と慣性測定の融合に基づくロバストな相対的局所化システムを提案する。
提案システムは様々な実験でテストされ、精度と範囲において最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-06-23T08:39:05Z) - Exploring Event Camera-based Odometry for Planetary Robots [39.46226359115717]
イベントカメラは、将来の火星のヘリコプターミッションで視覚に基づく探査を可能にするためのセンサーになる見込みだ。
既存のイベントベースのビジュアル慣性オドメトリー(VIO)アルゴリズムは、高いトラッキングエラーに悩まされるか、脆弱である。
EKLT-VIOは,最先端のイベントベースとフィルタベースのバックエンドを組み合わせることで,両方の制約に対処する。
論文 参考訳(メタデータ) (2022-04-12T15:19:50Z) - Rapid Exploration for Open-World Navigation with Latent Goal Models [78.45339342966196]
多様なオープンワールド環境における自律的な探索とナビゲーションのためのロボット学習システムについて述べる。
本手法のコアとなるのは、画像の非パラメトリックトポロジカルメモリとともに、距離と行動の学習された潜在変数モデルである。
学習方針を規則化するために情報ボトルネックを使用し、(i)目標のコンパクトな視覚的表現、(ii)一般化能力の向上、(iii)探索のための実行可能な目標をサンプリングするためのメカニズムを提供する。
論文 参考訳(メタデータ) (2021-04-12T23:14:41Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Latent World Models For Intrinsically Motivated Exploration [140.21871701134626]
画像に基づく観察のための自己教師付き表現学習法を提案する。
我々は、部分的に観測可能な環境の探索を導くために、エピソードおよび寿命の不確実性を考慮する。
論文 参考訳(メタデータ) (2020-10-05T19:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。