論文の概要: FocusTrack: One-Stage Focus-and-Suppress Framework for 3D Point Cloud Object Tracking
- arxiv url: http://arxiv.org/abs/2602.24133v1
- Date: Fri, 27 Feb 2026 16:09:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.506129
- Title: FocusTrack: One-Stage Focus-and-Suppress Framework for 3D Point Cloud Object Tracking
- Title(参考訳): FocusTrack: 3Dポイントクラウドオブジェクト追跡のためのワンステップフォーカス・アンド・サプレッションフレームワーク
- Authors: Sifan Zhou, Jiahao Nie, Ziyu Zhao, Yichao Cao, Xiaobo Lu,
- Abstract要約: FocusTrackは、モーション・セマンティック・コ・モデリングを統合する新しい一段階のパラダイムトラッキングフレームワークである。
IMMモジュールは、隣接するフレーム間のグローバルな動きパターンをキャプチャするために、テンポラルディファレンスサイムエンコーダを使用する。
前景のセマンティクスを高めるフォーカス・アンド・サプレッション・アテンションは、モーション・サリエントな特徴ゲーティングによって背景雑音を抑える。
- 参考スコア(独自算出の注目度): 38.72215897182717
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In 3D point cloud object tracking, the motion-centric methods have emerged as a promising avenue due to its superior performance in modeling inter-frame motion. However, existing two-stage motion-based approaches suffer from fundamental limitations: (1) error accumulation due to decoupled optimization caused by explicit foreground segmentation prior to motion estimation, and (2) computational bottlenecks from sequential processing. To address these challenges, we propose FocusTrack, a novel one-stage paradigms tracking framework that unifies motion-semantics co-modeling through two core innovations: Inter-frame Motion Modeling (IMM) and Focus-and-Suppress Attention. The IMM module employs a temp-oral-difference siamese encoder to capture global motion patterns between adjacent frames. The Focus-and-Suppress attention that enhance the foreground semantics via motion-salient feature gating and suppress the background noise based on the temporal-aware motion context from IMM without explicit segmentation. Based on above two designs, FocusTrack enables end-to-end training with compact one-stage pipeline. Extensive experiments on prominent 3D tracking benchmarks, such as KITTI, nuScenes, and Waymo, demonstrate that the FocusTrack achieves new SOTA performance while running at a high speed with 105 FPS.
- Abstract(参考訳): 3Dポイント・クラウド・オブジェクト・トラッキングでは、フレーム間の動きをモデル化する際の優れた性能のため、モーション中心の手法が有望な道として登場した。
しかし、既存の2段階のモーションベースアプローチは、(1)動き推定に先立って、明示的な前景のセグメンテーションによって引き起こされる非結合最適化による誤差の蓄積、(2)シーケンシャルな処理による計算ボトルネックなど、基本的な制限に悩まされている。
これらの課題に対処するために、FocusTrackを提案する。これは、フレーム間運動モデリング(IMM)とフォーカス・アンド・サプレッション注意(Focus-and-Suppress Attention)という、2つのコアイノベーションを通じて、モーション・セマンティック・コモデリングを統合する新しい1段階のパラダイムトラッキングフレームワークである。
IMMモジュールは、隣接するフレーム間のグローバルな動きパターンをキャプチャするために、テンポラルディファレンスサイムエンコーダを使用する。
前景のセマンティクスを高めるフォーカス・アンド・サプレッション・アテンション(Focus-and-Suppress attention)は,時間認識動作コンテキストに基づく背景雑音を明瞭なセグメンテーションなしで抑制する。
上記の2つの設計に基づいて、FocusTrackは、コンパクトなワンステージパイプラインによるエンドツーエンドのトレーニングを可能にする。
KITTI、nuScenes、Waymoといった著名な3Dトラッキングベンチマークに関する大規模な実験は、FocusTrackが105 FPSで高速で実行しながら、新しいSOTAパフォーマンスを達成することを実証している。
関連論文リスト
- Beyond Frame-wise Tracking: A Trajectory-based Paradigm for Efficient Point Cloud Tracking [13.622939944601393]
TrajTrackは、歴史的なバウンディングボックストラジェクトリだけで動きの連続性を暗黙的に学習することで、ベース2フレームトラッカーを強化する軽量フレームワークである。
新たな最先端性能を実現し、56FPSで走行しながら強力なベースライン上での追跡精度を4.48%向上させた。
論文 参考訳(メタデータ) (2025-09-14T21:57:16Z) - Online Dense Point Tracking with Streaming Memory [54.22820729477756]
デンスポイントトラッキングは、ビデオのかなりの部分を通して、初期フレーム内のすべてのポイントの連続的な追跡を必要とする、困難なタスクである。
最近の点追跡アルゴリズムは、通常、最初のフレームから現在のフレームへの間接的な情報伝達のためにスライドウィンドウに依存する。
我々は、高密度のtextbfPOint textbfTracking とオンラインビデオ処理のための textbfStreaming メモリを備えた軽量で高速なモデルを提案する。
論文 参考訳(メタデータ) (2025-03-09T06:16:49Z) - MATE: Motion-Augmented Temporal Consistency for Event-based Point Tracking [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
事象の間隔に起因する曖昧さを解決するため、運動誘導モジュールは運動ベクトルを局所的なマッチングプロセスに組み込む。
このメソッドは、任意のポイントベースラインのイベントのみのトラッキングに対して、$Survival_50$メトリックを17.9%改善する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - Motion-to-Matching: A Mixed Paradigm for 3D Single Object Tracking [27.805298263103495]
本稿では,モーションモデリングと特徴マッチングを組み合わせたMTM-Trackerを提案する。
第1段階では、連続した履歴ボックスを先行動作として利用し、ターゲットの粗い位置を特定するエンコーダ・デコーダ構造を提案する。
第2段階では、連続する点雲から動きを認識する特徴を抽出し、それらをマッチングして目標運動を洗練させる特徴相互作用モジュールを導入する。
論文 参考訳(メタデータ) (2023-08-23T02:40:51Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z) - Beyond 3D Siamese Tracking: A Motion-Centric Paradigm for 3D Single
Object Tracking in Point Clouds [39.41305358466479]
LiDARポイントクラウドにおける3Dオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
新しい視点から3D SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2022-03-03T14:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。