論文の概要: Exploring Event Camera-based Odometry for Planetary Robots
- arxiv url: http://arxiv.org/abs/2204.05880v1
- Date: Tue, 12 Apr 2022 15:19:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 14:39:46.226495
- Title: Exploring Event Camera-based Odometry for Planetary Robots
- Title(参考訳): イベントカメラを用いた惑星ロボットのオドメトリー
- Authors: Florian Mahlknecht, Daniel Gehrig, Jeremy Nash, Friedrich M.
Rockenbauer, Benjamin Morrell, Jeff Delaune, Davide Scaramuzza
- Abstract要約: イベントカメラは、将来の火星のヘリコプターミッションで視覚に基づく探査を可能にするためのセンサーになる見込みだ。
既存のイベントベースのビジュアル慣性オドメトリー(VIO)アルゴリズムは、高いトラッキングエラーに悩まされるか、脆弱である。
EKLT-VIOは,最先端のイベントベースとフィルタベースのバックエンドを組み合わせることで,両方の制約に対処する。
- 参考スコア(独自算出の注目度): 39.46226359115717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to their resilience to motion blur and high robustness in low-light and
high dynamic range conditions, event cameras are poised to become enabling
sensors for vision-based exploration on future Mars helicopter missions.
However, existing event-based visual-inertial odometry (VIO) algorithms either
suffer from high tracking errors or are brittle, since they cannot cope with
significant depth uncertainties caused by an unforeseen loss of tracking or
other effects. In this work, we introduce EKLT-VIO, which addresses both
limitations by combining a state-of-the-art event-based frontend with a
filter-based backend. This makes it both accurate and robust to uncertainties,
outperforming event- and frame-based VIO algorithms on challenging benchmarks
by 32%. In addition, we demonstrate accurate performance in hover-like
conditions (outperforming existing event-based methods) as well as high
robustness in newly collected Mars-like and high-dynamic-range sequences, where
existing frame-based methods fail. In doing so, we show that event-based VIO is
the way forward for vision-based exploration on Mars.
- Abstract(参考訳): 低照度および高ダイナミックレンジ条件下では、動きのぼやけや高ロバスト性に耐性があるため、イベントカメラは将来の火星のヘリコプターミッションで視覚に基づく探査を可能にするセンサーとなる可能性がある。
しかし、既存のイベントベースの視覚慣性オドメトリ (vio) アルゴリズムは、予測不能なトラッキングや他の影響によるかなりの深さの不確実性に対処できないため、高いトラッキングエラーまたは不安定である。
本研究では,最先端のイベントベースフロントエンドとフィルタベースのバックエンドを組み合わせたEKLT-VIOを提案する。
これにより、不確実性に対して正確かつ堅牢であり、挑戦的なベンチマークでイベントベースのVIOアルゴリズムとフレームベースのVIOアルゴリズムを32%上回る。
さらに,ホバリングのような条件(既存のイベントベース手法よりも優れている)と,既存のフレームベース手法が失敗する火星系および高ダイナミックレンジ系における高いロバスト性を示す。
これによって、イベントベースのVIOが、火星でのビジョンベースの探査の先駆けとなることが示される。
関連論文リスト
- You Only Crash Once v2: Perceptually Consistent Strong Features for One-Stage Domain Adaptive Detection of Space Terrain [4.339510167603377]
惑星、月、小天体の表面地形をその場で検出することは、自律的な宇宙船の用途に不可欠である。
Unsupervised Domain Adaptation (UDA)は、異なるデータソースによるモデルトレーニングを容易にすることで、有望なソリューションを提供する。
UDA下での地形検出能力を向上するVSA方式の新たな追加を提案する。
論文 参考訳(メタデータ) (2025-01-23T14:58:49Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Cross-Modal Semi-Dense 6-DoF Tracking of an Event Camera in Challenging
Conditions [29.608665442108727]
イベントベースのカメラはバイオインスパイアされた視覚センサーであり、HDR条件でよく機能し、時間分解能が高い。
本研究は、代替センサのマッピングが許された場合、純粋にイベントベースのトラッキングの実現可能性を示す。
この手法は、半密度マップとイベントの幾何学的3D-2D登録に依存しており、信頼性が高く正確なクロスモーダル追跡結果が得られる。
論文 参考訳(メタデータ) (2024-01-16T01:48:45Z) - EVI-SAM: Robust, Real-time, Tightly-coupled Event-Visual-Inertial State Estimation and 3D Dense Mapping [5.154689086578339]
単眼イベントカメラを用いた6自由度ポーズトラッキングと3次元再構成の課題に対処するために,EVI-SAMを提案する。
新しいイベントベースのハイブリッドトラッキングフレームワークは、特徴マッチングの堅牢性と直接アライメントの精度を活用することで、ポーズを推定するように設計されている。
私たちの知る限りでは、イベントベースの高密度マッピングを実現するための非学習作業としてはこれが初めてです。
論文 参考訳(メタデータ) (2023-12-19T07:39:45Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - AVisT: A Benchmark for Visual Object Tracking in Adverse Visibility [125.77396380698639]
AVisTは、視認性の悪いさまざまなシナリオにおける視覚的トラッキングのためのベンチマークである。
AVisTは、80kの注釈付きフレームを持つ120の挑戦的なシーケンスで構成されており、18の多様なシナリオにまたがっている。
我々は、属性間でのトラッキング性能を詳細に分析し、AVisTで17の人気のトラッカーと最近のトラッカーをベンチマークした。
論文 参考訳(メタデータ) (2022-08-14T17:49:37Z) - A Neuromorphic Vision-Based Measurement for Robust Relative Localization
in Future Space Exploration Missions [0.0]
本研究では,ニューロモルフィック・ビジョン・ベース・計測(NVBM)と慣性測定の融合に基づくロバストな相対的局所化システムを提案する。
提案システムは様々な実験でテストされ、精度と範囲において最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2022-06-23T08:39:05Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Towards Robust Monocular Visual Odometry for Flying Robots on Planetary
Missions [49.79068659889639]
火星に着陸したばかりのIngenuityは、トラバーサビリティの影響を受けない新時代の探検の始まりとなるでしょう。
高速な光フロートラッキングを用いた高能率単分子オードメトリーアルゴリズムを提案する。
また、相対翻訳情報行列の主成分分析に基づいて、スケールドリフトの現在のリスクを推定する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-12T12:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。