論文の概要: Beyond Frame-wise Tracking: A Trajectory-based Paradigm for Efficient Point Cloud Tracking
- arxiv url: http://arxiv.org/abs/2509.11453v1
- Date: Sun, 14 Sep 2025 21:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.091783
- Title: Beyond Frame-wise Tracking: A Trajectory-based Paradigm for Efficient Point Cloud Tracking
- Title(参考訳): フレームワイドトラッキングを超えて - 効率的なポイントクラウドトラッキングのためのトラジェクトリベースのパラダイム
- Authors: BaiChen Fan, Sifan Zhou, Jian Li, Shibo Zhao, Muqing Cao, Qin Wang,
- Abstract要約: TrajTrackは、歴史的なバウンディングボックストラジェクトリだけで動きの連続性を暗黙的に学習することで、ベース2フレームトラッカーを強化する軽量フレームワークである。
新たな最先端性能を実現し、56FPSで走行しながら強力なベースライン上での追跡精度を4.48%向上させた。
- 参考スコア(独自算出の注目度): 13.622939944601393
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: LiDAR-based 3D single object tracking (3D SOT) is a critical task in robotics and autonomous systems. Existing methods typically follow frame-wise motion estimation or a sequence-based paradigm. However, the two-frame methods are efficient but lack long-term temporal context, making them vulnerable in sparse or occluded scenes, while sequence-based methods that process multiple point clouds gain robustness at a significant computational cost. To resolve this dilemma, we propose a novel trajectory-based paradigm and its instantiation, TrajTrack. TrajTrack is a lightweight framework that enhances a base two-frame tracker by implicitly learning motion continuity from historical bounding box trajectories alone-without requiring additional, costly point cloud inputs. It first generates a fast, explicit motion proposal and then uses an implicit motion modeling module to predict the future trajectory, which in turn refines and corrects the initial proposal. Extensive experiments on the large-scale NuScenes benchmark show that TrajTrack achieves new state-of-the-art performance, dramatically improving tracking precision by 4.48% over a strong baseline while running at 56 FPS. Besides, we also demonstrate the strong generalizability of TrajTrack across different base trackers. Video is available at https://www.bilibili.com/video/BV1ahYgzmEWP.
- Abstract(参考訳): LiDARベースの3Dオブジェクトトラッキング(3D SOT)は、ロボット工学と自律システムにおいて重要なタスクである。
既存の手法は通常、フレームワイドのモーション推定やシーケンスベースのパラダイムに従う。
しかし、2フレームの手法は効率的であるが、長期の時間的文脈が欠如しており、スパースや隠蔽シーンに弱い一方、複数点の雲を処理するシーケンスベースの手法は、計算コストがかなり高い。
このジレンマを解決するために,新しいトラジェクトリ・ベース・パラダイムとそのインスタンス化であるTrajTrackを提案する。
TrajTrackは、2フレームトラッカーをベースとする軽量なフレームワークで、過去のバウンディングボックスのトラジェクトリから動きの連続性を暗黙的に学習する。
最初は高速で明示的なモーションプロポーザルを生成し、次に暗黙のモーションモデリングモジュールを使用して将来の軌道を予測する。
大規模なNuScenesベンチマークによる大規模な実験により、TrijTrackは新たな最先端のパフォーマンスを実現し、56 FPSで実行中の強いベースライン上でのトラッキング精度を4.48%向上した。
さらに、異なるベーストラッカー間でのTrajTrackの強力な一般化性を示す。
ビデオはhttps://www.bilibili.com/video/BV1ahYgzmEWP.comで公開されている。
関連論文リスト
- DELTAv2: Accelerating Dense 3D Tracking [79.63990337419514]
本稿では,ビデオ中の高密度3次元点追跡を高速化するための新しいアルゴリズムを提案する。
極小点の小さな部分集合で追跡を開始し、トラックされた軌道の集合を段階的に拡大する粗大な戦略を導入する。
新たに追加されたトラジェクトリは学習可能なモジュールを使用しており、トラッキングネットワークとともにエンドツーエンドでトレーニングされている。
論文 参考訳(メタデータ) (2025-08-02T03:15:47Z) - GoTrack: Generic 6DoF Object Pose Refinement and Tracking [23.482231006169176]
GoTrackは、6DoFオブジェクトの修正と追跡のための効率的で正確なCADベースの手法である。
GoTrackはフレーム間登録を統合し、計算を節約し、トラッキングを安定化する。
論文 参考訳(メタデータ) (2025-06-08T14:01:47Z) - Online Dense Point Tracking with Streaming Memory [54.22820729477756]
デンスポイントトラッキングは、ビデオのかなりの部分を通して、初期フレーム内のすべてのポイントの連続的な追跡を必要とする、困難なタスクである。
最近の点追跡アルゴリズムは、通常、最初のフレームから現在のフレームへの間接的な情報伝達のためにスライドウィンドウに依存する。
我々は、高密度のtextbfPOint textbfTracking とオンラインビデオ処理のための textbfStreaming メモリを備えた軽量で高速なモデルを提案する。
論文 参考訳(メタデータ) (2025-03-09T06:16:49Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - SeqTrack3D: Exploring Sequence Information for Robust 3D Point Cloud
Tracking [26.405519771454102]
本稿では,SeqTrack3DというトラッカーとSequence-to-Sequenceトラッキングパラダイムを導入し,連続フレーム間の目標運動をキャプチャする。
本手法は, 重要点の少ないシーンにおいても, 歴史的ボックスからの位置情報を有効活用することにより, ロバストなトラッキングを実現する。
大規模なデータセットで実施された実験は、SeqTrack3Dが新しい最先端のパフォーマンスを実現することを示している。
論文 参考訳(メタデータ) (2024-02-26T02:14:54Z) - Modeling Continuous Motion for 3D Point Cloud Object Tracking [54.48716096286417]
本稿では,各トラックレットを連続ストリームとみなす新しいアプローチを提案する。
各タイムスタンプでは、現在のフレームだけがネットワークに送られ、メモリバンクに格納された複数フレームの履歴機能と相互作用する。
頑健な追跡のためのマルチフレーム機能の利用性を高めるために,コントラッシブシーケンス強化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-14T02:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。