論文の概要: Asynchronous Optimisation for Event-based Visual Odometry
- arxiv url: http://arxiv.org/abs/2203.01037v1
- Date: Wed, 2 Mar 2022 11:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:42:28.148720
- Title: Asynchronous Optimisation for Event-based Visual Odometry
- Title(参考訳): イベントベースビジュアルオドメトリーの非同期最適化
- Authors: Daqi Liu, Alvaro Parra, Yasir Latif, Bo Chen, Tat-Jun Chin and Ian
Reid
- Abstract要約: イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
- 参考スコア(独自算出の注目度): 53.59879499700895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Event cameras open up new possibilities for robotic perception due to their
low latency and high dynamic range. On the other hand, developing effective
event-based vision algorithms that fully exploit the beneficial properties of
event cameras remains work in progress. In this paper, we focus on event-based
visual odometry (VO). While existing event-driven VO pipelines have adopted
continuous-time representations to asynchronously process event data, they
either assume a known map, restrict the camera to planar trajectories, or
integrate other sensors into the system. Towards map-free event-only monocular
VO in SE(3), we propose an asynchronous structure-from-motion optimisation
back-end. Our formulation is underpinned by a principled joint optimisation
problem involving non-parametric Gaussian Process motion modelling and
incremental maximum a posteriori inference. A high-performance incremental
computation engine is employed to reason about the camera trajectory with every
incoming event. We demonstrate the robustness of our asynchronous back-end in
comparison to frame-based methods which depend on accurate temporal
accumulation of measurements.
- Abstract(参考訳): イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
一方、イベントカメラの利点をフル活用する効果的なイベントベースビジョンアルゴリズムの開発は現在も進行中である。
本稿では,vo(event-based visual odometry)に着目した。
既存のイベント駆動型VOパイプラインは、非同期にイベントデータを処理するために、連続時間表現を採用しているが、既知のマップを仮定するか、カメラを平面軌道に制限するか、あるいは他のセンサーをシステムに統合する。
マップフリーなイベントオンリーのモノクロVOをSE(3)で実現するために,非同期な構造-移動最適化バックエンドを提案する。
この定式化は、非パラメトリックガウス過程運動モデリングと漸進最大後方推定を含む原理的合同最適化問題に基礎を置いている。
高速インクリメンタルな計算エンジンを用いて、入ってくるイベント毎にカメラの軌跡を推論する。
正確な時間的蓄積に依存するフレームベースの手法と比較して,非同期バックエンドの堅牢性を示す。
関連論文リスト
- ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - BlinkTrack: Feature Tracking over 100 FPS via Events and Images [50.98675227695814]
本稿では,RGB画像とイベントデータを統合した新しいフレームワークであるBlinkTrackを提案する。
本手法は,従来のカルマンフィルタを学習ベースのフレームワークに拡張し,イベントおよびイメージの分岐において微分可能なカルマンフィルタを利用する。
実験の結果、BlinkTrackは既存のイベントベースの手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-09-26T15:54:18Z) - Event-ECC: Asynchronous Tracking of Events with Continuous Optimization [1.9446776999250501]
イベントECC (eECC) という,イベントごとの2次元運動ワープを計算するトラッキングアルゴリズムを提案する。
イベント処理の計算負担は、インクリメンタル処理と更新スキームの恩恵を受ける軽量バージョンによって軽減される。
最先端のイベントベース非同期トラッカーにおける追跡精度と特徴年齢の改善について報告する。
論文 参考訳(メタデータ) (2024-09-22T19:03:19Z) - Continuous Event-Line Constraint for Closed-Form Velocity Initialization [0.0]
イベントカメラは、対数輝度レベルの十分な変更に基づいて、非同期かつ独立にイベントをトリガーする。
本稿では,一階カメラのダイナミックスだけでなく,イベントクラスタが与えるラインオブザーバ間の関係を表現するために,一定の速度運動仮定と三焦点形状に依存する連続的なイベントライン制約を提案する。
論文 参考訳(メタデータ) (2021-09-09T14:39:56Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Event-based visual place recognition with ensembles of temporal windows [29.6328152991222]
イベントカメラは、低レイテンシと高レンジで連続的なイベントストリームを提供することができるバイオインスパイアされたセンサーである。
我々は,異なる長さの時間ウィンドウを並列に処理する,アンサンブルに基づく新しい手法を開発した。
提案するアンサンブル方式は, 単ウィンドウベースラインや従来のモデルベースアンサンブルよりも大幅に優れていた。
論文 参考訳(メタデータ) (2020-05-22T05:33:35Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z) - End-to-end Learning of Object Motion Estimation from Retinal Events for
Event-based Object Tracking [35.95703377642108]
イベントベースオブジェクト追跡のためのパラメトリックオブジェクトレベルの動き/変換モデルを学習し、回帰する新しいディープニューラルネットワークを提案する。
この目的を達成するために,線形時間減衰表現を用いた同期時間曲面を提案する。
我々は、TSLTDフレームのシーケンスを新しい網膜運動回帰ネットワーク(RMRNet)に供給し、エンド・ツー・エンドの5-DoFオブジェクト・モーション・レグレッションを実行する。
論文 参考訳(メタデータ) (2020-02-14T08:19:50Z) - Asynchronous Tracking-by-Detection on Adaptive Time Surfaces for
Event-based Object Tracking [87.0297771292994]
本稿では,イベントベースのトラッキング・バイ・ディテクト(ETD)手法を提案する。
この目的を達成するために,線形時間決定(ATSLTD)イベント・ツー・フレーム変換アルゴリズムを用いた適応時間曲面を提案する。
提案手法と,従来のカメラやイベントカメラをベースとした7種類のオブジェクト追跡手法と,ETDの2種類のバリエーションを比較した。
論文 参考訳(メタデータ) (2020-02-13T15:58:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。