論文の概要: Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields
- arxiv url: http://arxiv.org/abs/2303.02672v1
- Date: Sun, 5 Mar 2023 13:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:26:44.909599
- Title: Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields
- Title(参考訳): 連続時間ガウス過程運動補償による距離場を用いたイベントビジョンパターン追跡
- Authors: Cedric Le Gentil, Ignacio Alzugaray, Teresa Vidal-Calleja
- Abstract要約: 本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
- 参考スコア(独自算出の注目度): 4.168157981135697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the issue of motion compensation and pattern tracking in
event camera data. An event camera generates asynchronous streams of events
triggered independently by each of the pixels upon changes in the observed
intensity. Providing great advantages in low-light and rapid-motion scenarios,
such unconventional data present significant research challenges as traditional
vision algorithms are not directly applicable to this sensing modality. The
proposed method decomposes the tracking problem into a local SE(2)
motion-compensation step followed by a homography registration of small
motion-compensated event batches. The first component relies on Gaussian
Process (GP) theory to model the continuous occupancy field of the events in
the image plane and embed the camera trajectory in the covariance kernel
function. In doing so, estimating the trajectory is done similarly to GP
hyperparameter learning by maximising the log marginal likelihood of the data.
The continuous occupancy fields are turned into distance fields and used as
templates for homography-based registration. By benchmarking the proposed
method against other state-of-the-art techniques, we show that our open-source
implementation performs high-accuracy motion compensation and produces
high-quality tracks in real-world scenarios.
- Abstract(参考訳): 本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
イベントカメラは、観測強度の変化に応じて、各画素から独立にトリガされたイベントの非同期ストリームを生成する。
このような非伝統的なデータは、従来のビジョンアルゴリズムがこのセンシングモダリティに直接適用されないため、重要な研究課題を呈する。
提案手法では,追跡問題を局所的なse(2)運動補償ステップに分解し,その後に小さな動き補償イベントバッチのホモグラフ登録を行う。
第一成分はガウス過程(GP)理論に依存し、画像平面内の事象の連続占有場をモデル化し、カメラ軌道を共分散カーネル関数に埋め込む。
その際、データのログ周縁確率を最大化することにより、gpハイパーパラメータ学習と同様に軌道推定を行う。
連続占有場は距離場に変換され、ホモグラフィに基づく登録のテンプレートとして使用される。
提案手法を最先端技術に対してベンチマークすることにより,我々のオープンソース実装が高精度な動作補償を行い,実世界のシナリオで高品質なトラックを生成することを示す。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [33.81592783496106]
イベントベースのビジュアルオドメトリーは、トラッキングとサブプロブレムを並列にマッピングすることを目的としている。
イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - GS-EVT: Cross-Modal Event Camera Tracking based on Gaussian Splatting [19.0745952177123]
本稿では,モーショントラッキングにおけるイベントカメラの利用について検討する。
難解なダイナミクスと照明の下で、固有の堅牢性を備えたソリューションを提供する。
フレームベースのカメラから直接来る地図表現を追跡する。
論文 参考訳(メタデータ) (2024-09-28T03:56:39Z) - IMU-Aided Event-based Stereo Visual Odometry [7.280676899773076]
我々は、精度と効率の点で、以前のダイレクトパイプラインの textitEvent ベースの Stereo Visual Odometry を改善しました。
マッピング操作を高速化するために,イベントの局所的ダイナミクスに応じたエッジピクセルサンプリングの効率的な戦略を提案する。
この分野での今後の研究のためのオープンソースソフトウェアとして、パイプラインをリリースします。
論文 参考訳(メタデータ) (2024-05-07T07:19:25Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive Survey [52.73728442921428]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。