論文の概要: Event-aided Direct Sparse Odometry
- arxiv url: http://arxiv.org/abs/2204.07640v1
- Date: Fri, 15 Apr 2022 20:40:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 05:23:41.378184
- Title: Event-aided Direct Sparse Odometry
- Title(参考訳): イベント支援直接スパースオドメトリ
- Authors: Javier Hidalgo-Carri\'o and Guillermo Gallego and Davide Scaramuzza
- Abstract要約: 本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
- 参考スコア(独自算出の注目度): 54.602311491827805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce EDS, a direct monocular visual odometry using events and frames.
Our algorithm leverages the event generation model to track the camera motion
in the blind time between frames. The method formulates a direct probabilistic
approach of observed brightness increments. Per-pixel brightness increments are
predicted using a sparse number of selected 3D points and are compared to the
events via the brightness increment error to estimate camera motion. The method
recovers a semi-dense 3D map using photometric bundle adjustment. EDS is the
first method to perform 6-DOF VO using events and frames with a direct
approach. By design, it overcomes the problem of changing appearance in
indirect methods. We also show that, for a target error performance, EDS can
work at lower frame rates than state-of-the-art frame-based VO solutions. This
opens the door to low-power motion-tracking applications where frames are
sparingly triggered "on demand" and our method tracks the motion in between. We
release code and datasets to the public.
- Abstract(参考訳): イベントとフレームを用いた直接単眼視覚計測であるEDSを紹介する。
このアルゴリズムはイベント生成モデルを利用してフレーム間のブラインド時間内にカメラの動きを追跡する。
この方法は、観測された明るさ増加の直接確率的アプローチを定式化する。
画素毎の輝度増分は、選択された3dポイントの少ない数を用いて予測され、明るさ増分誤差によってカメラの動きを推定するイベントと比較される。
本方法は、測光束調整を用いて半乾燥3dマップを復元する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
設計上、間接的な手法における外観の変化を克服する。
また、目標誤差性能に対して、EDSは最先端のフレームベースVOソリューションよりも低いフレームレートで動作可能であることを示す。
これにより、フレームがスペース的に"オンデマンド"にトリガーされる低消費電力モーショントラッキングアプリケーションへの扉が開き、我々の手法は間の動きを追跡する。
コードとデータセットを公開しています。
関連論文リスト
- Joint 3D Shape and Motion Estimation from Rolling Shutter Light-Field
Images [2.0277446818410994]
本研究では,ローリングシャッターセンサを備えた光界カメラで撮影した1枚の画像からシーンを3次元再構成する手法を提案する。
本手法は、光場に存在する3次元情報キューと、ローリングシャッター効果によって提供される動き情報を利用する。
本稿では,このセンサの撮像プロセスの汎用モデルと再投射誤差を最小化する2段階アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-02T15:08:18Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - Event-based Camera Simulation using Monte Carlo Path Tracing with
Adaptive Denoising [10.712584582512811]
イベントベースのビデオは、ノイズのある明るさ値から変化を検出するプロセスと見なすことができる。
重み付き局所回帰に基づく復調法を拡張し,明るさ変化を検出する。
論文 参考訳(メタデータ) (2023-03-05T08:44:01Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Visual Odometry with an Event Camera Using Continuous Ray Warping and
Volumetric Contrast Maximization [31.627936023222052]
イベントカメラによるトラッキングとマッピングのための新しいソリューションを提案する。
カメラの動きは回転と変換の両方を含み、変位は任意に構造化された環境で起こる。
コントラストを3Dで実現することで,この問題に対する新たな解決法を提案する。
車両搭載イベントカメラによるAGV運動推定と3次元再構成への応用により,本手法の実用的妥当性が裏付けられる。
論文 参考訳(メタデータ) (2021-07-07T04:32:57Z) - TimeLens: Event-based Video Frame Interpolation [54.28139783383213]
本稿では,合成法とフロー法の両方の利点を生かした,等価寄与法であるTime Lensを紹介する。
最先端のフレームベースおよびイベントベース手法よりもPSNRが最大5.21dB向上したことを示す。
論文 参考訳(メタデータ) (2021-06-14T10:33:47Z) - MBA-VO: Motion Blur Aware Visual Odometry [99.56896875807635]
運動のぼかしは視覚計測法に残る主要な課題の1つである。
露光時間が長い低照度条件では、比較的遅いカメラの動きでも動きのぼやけが現れます。
露光時間内にカメラの局所軌道をモデル化し,推定する,直接的なアプローチによる新しいハイブリッド視覚オドメトリーパイプラインを提案する。
論文 参考訳(メタデータ) (2021-03-25T09:02:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。