論文の概要: ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras
- arxiv url: http://arxiv.org/abs/2410.09374v1
- Date: Sat, 12 Oct 2024 05:35:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 14:44:04.885643
- Title: ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras
- Title(参考訳): ESVO2:ステレオイベントカメラを用いた直接視覚慣性オドメトリー
- Authors: Junkai Niu, Sheng Zhong, Xiuyuan Lu, Shaojie Shen, Guillermo Gallego, Yi Zhou,
- Abstract要約: イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
- 参考スコア(独自算出の注目度): 33.81592783496106
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based visual odometry is a specific branch of visual Simultaneous Localization and Mapping (SLAM) techniques, which aims at solving tracking and mapping sub-problems in parallel by exploiting the special working principles of neuromorphic (ie, event-based) cameras. Due to the motion-dependent nature of event data, explicit data association ie, feature matching under large-baseline view-point changes is hardly established, making direct methods a more rational choice. However, state-of-the-art direct methods are limited by the high computational complexity of the mapping sub-problem and the degeneracy of camera pose tracking in certain degrees of freedom (DoF) in rotation. In this paper, we resolve these issues by building an event-based stereo visual-inertial odometry system on top of our previous direct pipeline Event-based Stereo Visual Odometry. Specifically, to speed up the mapping operation, we propose an efficient strategy for sampling contour points according to the local dynamics of events. The mapping performance is also improved in terms of structure completeness and local smoothness by merging the temporal stereo and static stereo results. To circumvent the degeneracy of camera pose tracking in recovering the pitch and yaw components of general six-DoF motion, we introduce IMU measurements as motion priors via pre-integration. To this end, a compact back-end is proposed for continuously updating the IMU bias and predicting the linear velocity, enabling an accurate motion prediction for camera pose tracking. The resulting system scales well with modern high-resolution event cameras and leads to better global positioning accuracy in large-scale outdoor environments. Extensive evaluations on five publicly available datasets featuring different resolutions and scenarios justify the superior performance of the proposed system against five state-of-the-art methods.
- Abstract(参考訳): イベントベース・ビジュアル・オドメトリー(英: Event-based visual odometry)は、ニューロモルフィック(すなわち、イベントベース)カメラの特別な動作原理を活用することで、サブプロブレムの追跡とマッピングを並列に解決することを目的とした、視覚的局所マッピング(SLAM)技術の特定の分野である。
イベントデータの動作に依存した性質のため、明示的なデータアソシエーション、大きなベースラインの視点変化による特徴マッチングがほとんど確立されず、直接メソッドがより合理的な選択となる。
しかし、現在最先端の直接手法は、マッピングサブプロブレムの計算複雑性の高さと、回転中の一定の自由度(DoF)におけるカメラポーズ追跡の縮退によって制限されている。
本稿では、イベントベースのステレオビジュアル慣性オドメトリーシステムを構築し、イベントベースのステレオビジュアルオドメトリーの課題を解決する。
具体的には、マッピング操作を高速化するために、イベントの局所的ダイナミクスに応じて輪郭点をサンプリングする効率的な戦略を提案する。
また、時間的ステレオと静的ステレオを融合することにより、構造的完全性および局所的滑らか性の観点からマッピング性能を向上する。
一般的な6自由度運動のピッチとヨー成分を回復する際のカメラポーズ追跡の縮退を回避するために,IMU測定を事前積分による動作先行として導入する。
この目的のために、IMUバイアスを継続的に更新し、線形速度を予測するためのコンパクトなバックエンドを提案し、カメラポーズトラッキングの正確な動き予測を可能にする。
結果として得られるシステムは、現代の高解像度のイベントカメラとよく一致し、大規模屋外環境でのグローバルな位置決め精度が向上する。
さまざまな解像度とシナリオを備えた5つの公開データセットに対する大規模な評価は、5つの最先端手法に対する提案システムの優れたパフォーマンスを正当化する。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - EROAM: Event-based Camera Rotational Odometry and Mapping in Real-time [14.989905816510698]
EROAMは、リアルタイムで正確なカメラ推定を実現する、イベントベースの回転計測とマッピングシステムである。
EROAMは, 精度, 堅牢性, 計算効率において, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-11-17T08:50:47Z) - MonST3R: A Simple Approach for Estimating Geometry in the Presence of Motion [118.74385965694694]
我々は動的シーンから時間ステップごとの幾何を直接推定する新しい幾何学的アプローチであるMotion DUSt3R(MonST3R)を提案する。
各タイムステップのポイントマップを単純に推定することで、静的シーンにのみ使用されるDUST3Rの表現を動的シーンに効果的に適応させることができる。
我々は、問題を微調整タスクとしてポーズし、いくつかの適切なデータセットを特定し、この制限されたデータ上でモデルを戦略的に訓練することで、驚くほどモデルを動的に扱えることを示す。
論文 参考訳(メタデータ) (2024-10-04T18:00:07Z) - IMU-Aided Event-based Stereo Visual Odometry [7.280676899773076]
我々は、精度と効率の点で、以前のダイレクトパイプラインの textitEvent ベースの Stereo Visual Odometry を改善しました。
マッピング操作を高速化するために,イベントの局所的ダイナミクスに応じたエッジピクセルサンプリングの効率的な戦略を提案する。
この分野での今後の研究のためのオープンソースソフトウェアとして、パイプラインをリリースします。
論文 参考訳(メタデータ) (2024-05-07T07:19:25Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields [4.168157981135697]
本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
論文 参考訳(メタデータ) (2023-03-05T13:48:20Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Event-based Stereo Visual Odometry [42.77238738150496]
ステレオ・イベント・ベースのカメラ・リグが取得したデータから視覚計測の問題に対する解決策を提案する。
我々は,シンプルかつ効率的な表現を用いて,ステレオイベントベースのデータの時間的一貫性を最大化する。
論文 参考訳(メタデータ) (2020-07-30T15:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。