論文の概要: ES-PTAM: Event-based Stereo Parallel Tracking and Mapping
- arxiv url: http://arxiv.org/abs/2408.15605v1
- Date: Wed, 28 Aug 2024 07:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-29 16:53:03.842333
- Title: ES-PTAM: Event-based Stereo Parallel Tracking and Mapping
- Title(参考訳): ES-PTAM:イベントベースのステレオ並列追跡とマッピング
- Authors: Suman Ghosh, Valentina Cavinato, Guillermo Gallego,
- Abstract要約: イベントカメラは、標準的なカメラの限界を克服する利点を提供する。
2つのアイデアを組み合わせたイベントベースステレオVOシステムを提案する。
実世界の5つのデータセットからシステムを評価する。
- 参考スコア(独自算出の注目度): 11.801511288805225
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Visual Odometry (VO) and SLAM are fundamental components for spatial perception in mobile robots. Despite enormous progress in the field, current VO/SLAM systems are limited by their sensors' capability. Event cameras are novel visual sensors that offer advantages to overcome the limitations of standard cameras, enabling robots to expand their operating range to challenging scenarios, such as high-speed motion and high dynamic range illumination. We propose a novel event-based stereo VO system by combining two ideas: a correspondence-free mapping module that estimates depth by maximizing ray density fusion and a tracking module that estimates camera poses by maximizing edge-map alignment. We evaluate the system comprehensively on five real-world datasets, spanning a variety of camera types (manufacturers and spatial resolutions) and scenarios (driving, flying drone, hand-held, egocentric, etc). The quantitative and qualitative results demonstrate that our method outperforms the state of the art in majority of the test sequences by a margin, e.g., trajectory error reduction of 45% on RPG dataset, 61% on DSEC dataset, and 21% on TUM-VIE dataset. To benefit the community and foster research on event-based perception systems, we release the source code and results: https://github.com/tub-rip/ES-PTAM
- Abstract(参考訳): 視覚オドメトリー(VO)とSLAMは,移動ロボットにおける空間知覚の基本要素である。
この分野の進歩にもかかわらず、現在のVO/SLAMシステムはセンサーの能力によって制限されている。
イベントカメラは、標準的なカメラの限界を克服する利点を提供する新しい視覚センサーであり、ロボットは、高速モーションや高ダイナミックレンジ照明のような挑戦的なシナリオに、その操作範囲を拡大することができる。
本稿では,線密度融合を最大化して深度を推定する対応のないマッピングモジュールと,エッジマップアライメントを最大化してカメラのポーズを推定するトラッキングモジュールの2つのアイデアを組み合わせることで,イベントベースのステレオVOシステムを提案する。
このシステムは、さまざまなカメラタイプ(メーカーや空間解像度)とシナリオ(運転、飛行ドローン、ハンドヘルド、エゴセントリックなど)にまたがる、現実世界の5つのデータセットを総合的に評価する。
定量的および定性的な結果から,本手法はテストシーケンスの大部分において,RPGデータセットでは45%,DSECデータセットでは61%,TUM-VIEデータセットでは21%のトラジェクティブエラー削減率で,最先端の手法よりも優れていることが示された。
コミュニティの利益とイベントベースの知覚システムの研究を促進するために、ソースコードと結果を公開した。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - On the Generation of a Synthetic Event-Based Vision Dataset for
Navigation and Landing [69.34740063574921]
本稿では,最適な着陸軌道からイベントベースの視覚データセットを生成する手法を提案する。
我々は,惑星と小惑星の自然シーン生成ユーティリティを用いて,月面のフォトリアリスティックな画像のシーケンスを構築した。
パイプラインは500トラジェクトリのデータセットを構築することで,表面特徴の現実的なイベントベース表現を生成することができることを示す。
論文 参考訳(メタデータ) (2023-08-01T09:14:20Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - M2DGR: A Multi-sensor and Multi-scenario SLAM Dataset for Ground Robots [22.767094281397746]
M2DGR(M2DGR)は、センサースーツを備えた地上ロボットによって収集された、新しい大規模データセットである。
データセットは、屋内環境と屋外環境の両方を含む様々なシナリオでキャプチャされた36のシーケンスから構成される。
研究コミュニティの利益のために、データセットとツールを公開します。
論文 参考訳(メタデータ) (2021-12-19T12:37:09Z) - Event Guided Depth Sensing [50.997474285910734]
バイオインスパイアされたイベントカメラ駆動深度推定アルゴリズムを提案する。
提案手法では,イベントカメラが検出したシーン活動に応じて,関心領域を高密度に照明する。
シミュレーションされた自律運転シーケンスと実際の屋内環境におけるアプローチの実現可能性を示す。
論文 参考訳(メタデータ) (2021-10-20T11:41:11Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Feature-based Event Stereo Visual Odometry [2.7298989068857487]
本稿では,特徴検出と注意深い特徴管理の整合性に基づく,イベントカメラのための新しいステレオ・ビジュアル・オドメトリー法を提案する。
提案手法を,屋内飛行ドローンが取得したMVSECシーケンスとDSEC屋外運転シーケンスの2つの公開データセットで評価した。
論文 参考訳(メタデータ) (2021-07-10T22:36:49Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。