論文の概要: Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields
- arxiv url: http://arxiv.org/abs/2303.02672v1
- Date: Sun, 5 Mar 2023 13:48:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:26:44.909599
- Title: Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields
- Title(参考訳): 連続時間ガウス過程運動補償による距離場を用いたイベントビジョンパターン追跡
- Authors: Cedric Le Gentil, Ignacio Alzugaray, Teresa Vidal-Calleja
- Abstract要約: 本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
- 参考スコア(独自算出の注目度): 4.168157981135697
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work addresses the issue of motion compensation and pattern tracking in
event camera data. An event camera generates asynchronous streams of events
triggered independently by each of the pixels upon changes in the observed
intensity. Providing great advantages in low-light and rapid-motion scenarios,
such unconventional data present significant research challenges as traditional
vision algorithms are not directly applicable to this sensing modality. The
proposed method decomposes the tracking problem into a local SE(2)
motion-compensation step followed by a homography registration of small
motion-compensated event batches. The first component relies on Gaussian
Process (GP) theory to model the continuous occupancy field of the events in
the image plane and embed the camera trajectory in the covariance kernel
function. In doing so, estimating the trajectory is done similarly to GP
hyperparameter learning by maximising the log marginal likelihood of the data.
The continuous occupancy fields are turned into distance fields and used as
templates for homography-based registration. By benchmarking the proposed
method against other state-of-the-art techniques, we show that our open-source
implementation performs high-accuracy motion compensation and produces
high-quality tracks in real-world scenarios.
- Abstract(参考訳): 本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
イベントカメラは、観測強度の変化に応じて、各画素から独立にトリガされたイベントの非同期ストリームを生成する。
このような非伝統的なデータは、従来のビジョンアルゴリズムがこのセンシングモダリティに直接適用されないため、重要な研究課題を呈する。
提案手法では,追跡問題を局所的なse(2)運動補償ステップに分解し,その後に小さな動き補償イベントバッチのホモグラフ登録を行う。
第一成分はガウス過程(GP)理論に依存し、画像平面内の事象の連続占有場をモデル化し、カメラ軌道を共分散カーネル関数に埋め込む。
その際、データのログ周縁確率を最大化することにより、gpハイパーパラメータ学習と同様に軌道推定を行う。
連続占有場は距離場に変換され、ホモグラフィに基づく登録のテンプレートとして使用される。
提案手法を最先端技術に対してベンチマークすることにより,我々のオープンソース実装が高精度な動作補償を行い,実世界のシナリオで高品質なトラックを生成することを示す。
関連論文リスト
- Implicit Event-RGBD Neural SLAM [57.48879389141497]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルネットワークSLAMフレームワークであるtextbfEN-SLAM$を提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - GNEP Based Dynamic Segmentation and Motion Estimation for Neuromorphic
Imaging [0.0]
本稿では,画像分割と動き推定の領域におけるイベントベースカメラの適用について検討する。
イベントストリームから得られる時間的・空間的情報を利用してセグメント化と速度推定を行う一般化ナッシュ平衡に基づくフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-05T18:44:51Z) - Event-based Simultaneous Localization and Mapping: A Comprehensive
Survey [67.89650389832147]
ローカライゼーションとマッピングタスクのための非同期および不規則なイベントストリームの利点を利用する、イベントベースのvSLAMアルゴリズムのレビュー。
Paperは、イベントベースのvSLAMメソッドを、特徴ベース、ダイレクト、モーション補償、ディープラーニングの4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-04-19T16:21:14Z) - Event Transformer [37.18171320405741]
イベントカメラは、(空間内で)非同期に(時間内で)ピクセルの明るさ変化(時間軸、イベント)を記録する
この研究は、イベントシーケンスをネイティブベクトル化テンソルフォーマットで処理するEvent Transformerを提案する。
局所的な時間的相関を利用するローカルトランスフォーマー(LXformer)、局所的な空間的類似性を埋め込むSコンフォーマー(SCformer)、グローバル情報をさらに集約するグローバルトランスフォーマー(GXformer)をカスケードする。
論文 参考訳(メタデータ) (2022-04-11T15:05:06Z) - Globally-Optimal Event Camera Motion Estimation [30.79931004393174]
イベントカメラは、HDR条件でよく機能し、時間分解能の高いバイオインスパイアされたセンサーである。
イベントカメラは、非同期ピクセルレベルの変更を測定し、高度に識別されたフォーマットでそれらを返す。
論文 参考訳(メタデータ) (2022-03-08T08:24:22Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Neural Implicit Event Generator for Motion Tracking [13.312655893024658]
暗黙の表現を用いたイベントデータからの動作追跡の新しいフレームワークを提案する。
本フレームワークは、暗黙のイベント生成(IEG)と呼ばれる事前学習イベント生成を使用し、観測されたイベントと生成されたイベントの現在の状態推定値との差に基づいて、その状態(位置と速度)を更新することで、動作追跡を行う。
我々は,騒音や背景が乱雑な環境下では,我々のフレームワークが実環境でも有効であることを確認した。
論文 参考訳(メタデータ) (2021-11-06T07:38:52Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。