論文の概要: A 5-Point Minimal Solver for Event Camera Relative Motion Estimation
- arxiv url: http://arxiv.org/abs/2309.17054v1
- Date: Fri, 29 Sep 2023 08:30:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:55:48.401012
- Title: A 5-Point Minimal Solver for Event Camera Relative Motion Estimation
- Title(参考訳): イベントカメラ相対運動推定のための5点最小解法
- Authors: Ling Gao and Hang Su and Daniel Gehrig and Marco Cannici and Davide
Scaramuzza and Laurent Kneip
- Abstract要約: 本稿では,直線パラメータと線形カメラ速度予測を推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を提案する。
本手法は,既存の閉形式解法が23%から70%しか達成できない線形速度の推定において,連続的に100%の成功率を達成する。
- 参考スコア(独自算出の注目度): 47.45081895021988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event-based cameras are ideal for line-based motion estimation, since they
predominantly respond to edges in the scene. However, accurately determining
the camera displacement based on events continues to be an open problem. This
is because line feature extraction and dynamics estimation are tightly coupled
when using event cameras, and no precise model is currently available for
describing the complex structures generated by lines in the space-time volume
of events. We solve this problem by deriving the correct non-linear
parametrization of such manifolds, which we term eventails, and demonstrate its
application to event-based linear motion estimation, with known rotation from
an Inertial Measurement Unit. Using this parametrization, we introduce a novel
minimal 5-point solver that jointly estimates line parameters and linear camera
velocity projections, which can be fused into a single, averaged linear
velocity when considering multiple lines. We demonstrate on both synthetic and
real data that our solver generates more stable relative motion estimates than
other methods while capturing more inliers than clustering based on
spatio-temporal planes. In particular, our method consistently achieves a 100%
success rate in estimating linear velocity where existing closed-form solvers
only achieve between 23% and 70%. The proposed eventails contribute to a better
understanding of spatio-temporal event-generated geometries and we thus believe
it will become a core building block of future event-based motion estimation
algorithms.
- Abstract(参考訳): イベントベースのカメラは、主にシーンの端に反応するため、ラインベースのモーション推定に最適である。
しかし、イベントに基づいてカメラの変位を正確に判定することは未解決の問題である。
これは、イベントカメラを使用する場合、ラインの特徴抽出とダイナミックス推定が密結合されているためであり、イベントの時空間体積におけるラインによって生成された複雑な構造を記述するための正確なモデルが現在存在しないためである。
このような多様体の正則な非線形パラメトリゼーションの導出によりこの問題を解決し、慣性測定ユニットからの既知の回転を伴う事象ベース線形運動推定への応用を実証する。
このパラメトリゼーションを用いて,直線パラメータと線形カメラ速度の投射を同時に推定し,複数の直線を考慮した場合の1つの平均線形速度に融合できる新しい最小5点解法を導入する。
本研究では, 時空間平面に基づくクラスタリングよりも, より安定な相対運動推定値を生成することを, 合成データと実データの両方で実証する。
特に,既存の閉形式解法が 23% から 70% 程度しか達成できない線形速度の推定において, 線形速度を100% の成功率で連続的に達成する。
提案手法は時空間的イベント生成ジオメトリの理解を深めるものであり,今後のイベントベースモーション推定アルゴリズムの中核的構成要素となると考えられる。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - An N-Point Linear Solver for Line and Motion Estimation with Event Cameras [45.67822962085412]
イベントカメラは、主にエッジ(強い勾配によって形成される)に応答する。
近年の研究では、一直線で生成された事象は、時空体積の多様体を記述する新しい制約を満たすことが示されている。
適切な線形パラメトリゼーションにより、この制約系は未知数において実際に線型であることが示される。
論文 参考訳(メタデータ) (2024-04-01T00:47:02Z) - Tight Fusion of Events and Inertial Measurements for Direct Velocity
Estimation [20.002238735553792]
本研究では,通常のカメラの代わりに動的視覚センサを用いて,一階キネマティクスのレベルで直接視覚-慣性融合を行う新しい手法を提案する。
本研究では, 短時間で高ダイナミックな状況下での速度推定がどのように得られるかを示す。
シミュレーションデータと実データの両方の実験により、提案された密接な事象-慣性融合が連続的かつ信頼性の高い速度推定に繋がることを示した。
論文 参考訳(メタデータ) (2024-01-17T15:56:57Z) - Vanishing Point Estimation in Uncalibrated Images with Prior Gravity
Direction [82.72686460985297]
我々はマンハッタンのフレームを推定する問題に取り組む。
2つの新しい2行解法が導出され、そのうちの1つは既存の解法に影響を与える特異点に悩まされない。
また、局所最適化の性能を高めるために、任意の行で実行される新しい最小でないメソッドを設計する。
論文 参考訳(メタデータ) (2023-08-21T13:03:25Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Continuous Event-Line Constraint for Closed-Form Velocity Initialization [0.0]
イベントカメラは、対数輝度レベルの十分な変更に基づいて、非同期かつ独立にイベントをトリガーする。
本稿では,一階カメラのダイナミックスだけでなく,イベントクラスタが与えるラインオブザーバ間の関係を表現するために,一定の速度運動仮定と三焦点形状に依存する連続的なイベントライン制約を提案する。
論文 参考訳(メタデータ) (2021-09-09T14:39:56Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。