論文の概要: MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking
- arxiv url: http://arxiv.org/abs/2412.01300v2
- Date: Sun, 27 Jul 2025 08:15:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 14:15:45.054886
- Title: MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking
- Title(参考訳): MATE:イベントベースのポイントトラッキングのための動き強化時間一貫性
- Authors: Han Han, Wei Zhai, Yang Cao, Bin Li, Zheng-jun Zha,
- Abstract要約: 本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
- 参考スコア(独自算出の注目度): 58.719310295870024
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking Any Point (TAP) plays a crucial role in motion analysis. Video-based approaches rely on iterative local matching for tracking, but they assume linear motion during the blind time between frames, which leads to point loss under large displacements or nonlinear motion. The high temporal resolution and motion blur-free characteristics of event cameras provide continuous, fine-grained motion information, capturing subtle variations with microsecond precision. This paper presents an event-based framework for tracking any point, which tackles the challenges posed by spatial sparsity and motion sensitivity in events through two tailored modules. Specifically, to resolve ambiguities caused by event sparsity, a motion-guidance module incorporates kinematic vectors into the local matching process. Additionally, a variable motion aware module is integrated to ensure temporally consistent responses that are insensitive to varying velocities, thereby enhancing matching precision. To validate the effectiveness of the approach, two event dataset for tracking any point is constructed by simulation. The method improves the $Survival_{50}$ metric by 17.9% over event-only tracking of any point baseline. Moreover, on standard feature tracking benchmarks, it outperforms all existing methods, even those that combine events and video frames.
- Abstract(参考訳): トラッキング・アニー・ポイント(TAP)は、運動分析において重要な役割を果たす。
ビデオベースのアプローチは、追跡のために反復的な局所マッチングに依存するが、フレーム間の盲点時間の間に線形運動を仮定し、大きな変位や非線形運動の下でのポイント損失をもたらす。
イベントカメラの高時間分解能と動きのぼかしのない特徴は、連続的、きめ細かな動き情報を提供し、微妙な変化をマイクロ秒精度で捉えている。
本稿では,任意の点をトラッキングするためのイベントベースのフレームワークを提案する。
具体的には、事象の間隔によって生じる曖昧さを解決するために、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
さらに、可変運動認識モジュールが統合され、異なる速度に敏感でない時間的に一貫した応答が保証され、一致精度が向上する。
このアプローチの有効性を検証するために、任意の点を追跡する2つのイベントデータセットがシミュレーションによって構築されている。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_{50}$メトリックを17.9%改善する。
さらに、標準的な機能トラッキングベンチマークでは、イベントとビデオフレームを組み合わせたものでさえ、既存のすべてのメソッドよりも優れています。
関連論文リスト
- Iterative Event-based Motion Segmentation by Variational Contrast Maximization [16.68279129685]
イベントカメラは、シーンの変化に反応するため、モーション推定に適したリッチな信号を提供する。
事象を背景(支配的な動き仮説など)と前景(独立な動き残差)に分類する反復的な動き分割法を提案する。
実験の結果,提案手法は,公開データセットと自己記録データセットの両方において,イベントクラスタの分類に成功していることがわかった。
論文 参考訳(メタデータ) (2025-04-25T16:00:23Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Continuous-Time Gaussian Process Motion-Compensation for Event-vision
Pattern Tracking with Distance Fields [4.168157981135697]
本研究は,イベントカメラデータにおける動き補償とパターン追跡の問題に対処する。
提案手法は、追跡問題を局所的なSE(2)運動補償ステップに分解し、その後、小さな動き補償イベントバッチのホモグラフィー登録を行う。
我々のオープンソース実装は高精度な動作補償を行い、実世界のシナリオで高品質なトラックを生成する。
論文 参考訳(メタデータ) (2023-03-05T13:48:20Z) - ProgressiveMotionSeg: Mutually Reinforced Framework for Event-Based
Motion Segmentation [101.19290845597918]
本稿では,動作推定 (ME) モジュールとイベントデノイング (ED) モジュールを相互に強化された方法で共同最適化する。
時間的相関をガイダンスとして、EDモジュールは各イベントが実活動イベントに属するという信頼度を算出し、MEモジュールに送信し、ノイズ抑制のための運動セグメンテーションのエネルギー関数を更新する。
論文 参考訳(メタデータ) (2022-03-22T13:40:26Z) - Event-based Motion Segmentation by Cascaded Two-Level Multi-Model
Fitting [44.97191206895915]
独立に動く物体を単眼イベントカメラで識別するためのケースド2レベル多モデルフィッティング法を提案する。
動作パターンの異なる実世界のシーンにおいて,本手法の有効性と汎用性を示す実験を行った。
論文 参考訳(メタデータ) (2021-11-05T12:59:41Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。