論文の概要: CMax-SLAM: Event-based Rotational-Motion Bundle Adjustment and SLAM
System using Contrast Maximization
- arxiv url: http://arxiv.org/abs/2403.08119v1
- Date: Tue, 12 Mar 2024 23:05:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 16:22:41.840880
- Title: CMax-SLAM: Event-based Rotational-Motion Bundle Adjustment and SLAM
System using Contrast Maximization
- Title(参考訳): CMax-SLAM:イベントベースの回転移動バンドル調整とSLAM
コントラスト最大化を用いたシステム
- Authors: Shuang Guo and Guillermo Gallego
- Abstract要約: イベントカメラはバイオインスパイアされた視覚センサで、ピクセルワイドの強度変化を捉え、非同期イベントストリームを出力する。
本稿では,イベントカメラを用いた回転運動推定の問題点について考察する。
過去10年間にいくつかの事象に基づく回転推定法が開発されてきたが、その性能は評価されていない。
- 参考スコア(独自算出の注目度): 14.771885020122062
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Event cameras are bio-inspired visual sensors that capture pixel-wise
intensity changes and output asynchronous event streams. They show great
potential over conventional cameras to handle challenging scenarios in robotics
and computer vision, such as high-speed and high dynamic range. This paper
considers the problem of rotational motion estimation using event cameras.
Several event-based rotation estimation methods have been developed in the past
decade, but their performance has not been evaluated and compared under unified
criteria yet. In addition, these prior works do not consider a global
refinement step. To this end, we conduct a systematic study of this problem
with two objectives in mind: summarizing previous works and presenting our own
solution. First, we compare prior works both theoretically and experimentally.
Second, we propose the first event-based rotation-only bundle adjustment (BA)
approach. We formulate it leveraging the state-of-the-art Contrast Maximization
(CMax) framework, which is principled and avoids the need to convert events
into frames. Third, we use the proposed BA to build CMax-SLAM, the first
event-based rotation-only SLAM system comprising a front-end and a back-end.
Our BA is able to run both offline (trajectory smoothing) and online (CMax-SLAM
back-end). To demonstrate the performance and versatility of our method, we
present comprehensive experiments on synthetic and real-world datasets,
including indoor, outdoor and space scenarios. We discuss the pitfalls of
real-world evaluation and propose a proxy for the reprojection error as the
figure of merit to evaluate event-based rotation BA methods. We release the
source code and novel data sequences to benefit the community. We hope this
work leads to a better understanding and fosters further research on
event-based ego-motion estimation. Project page:
https://github.com/tub-rip/cmax_slam
- Abstract(参考訳): イベントカメラはバイオインスパイアされた視覚センサで、ピクセルワイドの強度変化を捉え、非同期イベントストリームを出力する。
彼らは、ロボット工学やコンピュータビジョンにおける挑戦的なシナリオ、例えば高速で高ダイナミックレンジを扱うために、従来のカメラよりも大きな可能性を示しています。
本稿では,イベントカメラを用いた回転運動推定の問題点について考察する。
過去10年間にいくつかの事象に基づく回転推定法が開発されてきたが、その性能は評価されておらず、統一された基準の下で比較されている。
さらに、これらの先行研究は、グローバルな洗練のステップを考慮していない。
この目的のために,本稿では,先行研究の要約と独自のソリューションの提示という2つの目的を念頭に,この問題を体系的に研究する。
まず,先行研究を理論的・実験的に比較する。
第2に、イベントベースの回転専用バンドル調整(BA)手法を提案する。
我々は、イベントをフレームに変換する必要のない、最先端のコントラスト最大化(CMax)フレームワークを活用して、これを定式化する。
第3に、提案したBAを用いて、CMax-SLAMを構築する。
私たちのBAは、オフライン(軌道平滑化)とオンライン(CMax-SLAMバックエンド)の両方を実行できます。
提案手法の性能と汎用性を実証するため,室内,屋外,空間シナリオを含む,合成および実世界のデータセットに関する総合的な実験を行った。
本稿では,実世界評価の落とし穴について論じ,イベントベースの回転BA法を評価する上でのメリットとして再射誤差のプロキシを提案する。
コミュニティに利益をもたらすために、ソースコードと新しいデータシーケンスをリリースします。
この研究がより深く理解し、イベントベースのエゴモーション推定に関するさらなる研究を促進することを願っています。
プロジェクトページ:https://github.com/tub-rip/cmax_slam
関連論文リスト
- Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - HumanMAC: Masked Motion Completion for Human Motion Prediction [62.279925754717674]
人間の動き予測はコンピュータビジョンとコンピュータグラフィックスの古典的な問題である。
従来の効果はエンコーディング・デコード方式に基づく経験的性能を実現している。
本稿では,新しい視点から新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-07T18:34:59Z) - A Fast Geometric Regularizer to Mitigate Event Collapse in the Contrast
Maximization Framework [13.298845944779108]
本稿では,事象の崩壊を緩和する幾何学的原理に基づく,新しい計算効率の高い正規化器を提案する。
実験により,提案した正則化器は最先端の精度を実現する一方で,計算複雑性の低減により,従来の手法の2倍から4倍の高速化が得られた。
論文 参考訳(メタデータ) (2022-12-14T17:22:48Z) - Secrets of Event-Based Optical Flow [13.298845944779108]
イベントカメラはシーンダイナミクスに反応し、動きを推定する利点を提供する。
コントラスト最大化フレームワークを拡張し、イベントのみから光の流れを推定する原理的手法を開発した。
本手法はMVSECベンチマークにおける教師なし手法の中で第1位であり,DSECベンチマークでは競争力がある。
論文 参考訳(メタデータ) (2022-07-20T16:40:38Z) - Event Collapse in Contrast Maximization Frameworks [13.298845944779108]
ContrastMax (C) は、いくつかのイベントベースのコンピュータビジョン、例えば光学エゴモーションやフロー推定などのタスクに対して最先端の結果を提供するフレームワークである。
しかし、それはイベント崩壊と呼ばれる問題に悩まされるかもしれない。
我々の研究は、最も単純な形で事象の崩壊を実証し、時空変形の第一原理を用いて崩壊メトリクスを提案する。
論文 参考訳(メタデータ) (2022-07-08T16:52:35Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。