論文の概要: TrackNetV5: Residual-Driven Spatio-Temporal Refinement and Motion Direction Decoupling for Fast Object Tracking
- arxiv url: http://arxiv.org/abs/2512.02789v1
- Date: Tue, 02 Dec 2025 14:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.907388
- Title: TrackNetV5: Residual-Driven Spatio-Temporal Refinement and Motion Direction Decoupling for Fast Object Tracking
- Title(参考訳): TrackNetV5: 高速なオブジェクト追跡のための残留駆動時空間リファインメントと動き方向デカップリング
- Authors: Tang Haonan, Chen Yanjun, Jiang Lezhi,
- Abstract要約: 動作方向デカップリング(MDD)と残留駆動型時空間微細化(R-STR)を紹介する。
MDDは時間動力学を符号付き極性場に分解し、運動の発生と軌道方向の両方を明示的に符号化する。
R-STRは分解時間文脈を用いて補正残差を推定し、効果的にクラッドされたターゲットを復元する。
TrackNetV5 は最新の F1 スコア 0.9859 と精度 0.9733 を達成し、以前のバージョンより大幅に上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The TrackNet series has established a strong baseline for fast-moving small object tracking in sports. However, existing iterations face significant limitations: V1-V3 struggle with occlusions due to a reliance on purely visual cues, while TrackNetV4, despite introducing motion inputs, suffers from directional ambiguity as its absolute difference method discards motion polarity. To overcome these bottlenecks, we propose TrackNetV5, a robust architecture integrating two novel mechanisms. First, to recover lost directional priors, we introduce the Motion Direction Decoupling (MDD) module. Unlike V4, MDD decomposes temporal dynamics into signed polarity fields, explicitly encoding both movement occurrence and trajectory direction. Second, we propose the Residual-Driven Spatio-Temporal Refinement (R-STR) head. Operating on a coarse-to-fine paradigm, this Transformer-based module leverages factorized spatio-temporal contexts to estimate a corrective residual, effectively recovering occluded targets. Extensive experiments on the TrackNetV2 dataset demonstrate that TrackNetV5 achieves a new state-of-the-art F1-score of 0.9859 and an accuracy of 0.9733, significantly outperforming previous versions. Notably, this performance leap is achieved with a marginal 3.7% increase in FLOPs compared to V4, maintaining real-time inference capabilities while delivering superior tracking precision.
- Abstract(参考訳): TrackNetシリーズは、スポーツにおける動きの速い小さな物体追跡のための強力なベースラインを確立した。
V1-V3は純粋に視覚的なキューに依存するためオクルージョンに苦しむのに対し、TrackNetV4はモーション入力を導入したが、絶対差分法が動きの極性を捨てるため、方向の曖昧さに悩まされている。
これらのボトルネックを克服するために,2つの新しいメカニズムを組み込んだ堅牢なアーキテクチャであるTrackNetV5を提案する。
まず,移動方向分離 (MDD) モジュールを導入する。
V4とは異なり、MDDは時間動力学を符号付き極性場に分解し、運動の発生と軌道方向の両方を明示的に符号化する。
次に,Residual-Driven Spatio-Temporal Refinement (R-STR)ヘッダを提案する。
このトランスフォーマーベースのモジュールは粗大なパラダイムで動作し、分解された時空間コンテキストを利用して補正残差を推定し、隠蔽対象を効果的に回収する。
TrackNetV2データセットの大規模な実験は、TrackNetV5が新しい最先端のF1スコア0.9859、精度0.9733を達成し、以前のバージョンを大幅に上回ったことを示している。
特に、この性能の飛躍は、V4と比較してFLOPが3.7%増加し、より優れたトラッキング精度を提供しながら、リアルタイムの推論能力を維持している。
関連論文リスト
- Beyond Frame-wise Tracking: A Trajectory-based Paradigm for Efficient Point Cloud Tracking [13.622939944601393]
TrajTrackは、歴史的なバウンディングボックストラジェクトリだけで動きの連続性を暗黙的に学習することで、ベース2フレームトラッカーを強化する軽量フレームワークである。
新たな最先端性能を実現し、56FPSで走行しながら強力なベースライン上での追跡精度を4.48%向上させた。
論文 参考訳(メタデータ) (2025-09-14T21:57:16Z) - DELTAv2: Accelerating Dense 3D Tracking [79.63990337419514]
本稿では,ビデオ中の高密度3次元点追跡を高速化するための新しいアルゴリズムを提案する。
極小点の小さな部分集合で追跡を開始し、トラックされた軌道の集合を段階的に拡大する粗大な戦略を導入する。
新たに追加されたトラジェクトリは学習可能なモジュールを使用しており、トラッキングネットワークとともにエンドツーエンドでトレーニングされている。
論文 参考訳(メタデータ) (2025-08-02T03:15:47Z) - A Simple Detector with Frame Dynamics is a Strong Tracker [43.912410355089634]
赤外線物体追跡は、反無人航空機(Anti-UAV)の用途において重要な役割を担っている。
既存のトラッカーは、しばしば収穫されたテンプレート領域に依存し、モーションモデリング機能に制限がある。
我々は,グローバルな検出と動き認識学習を統合することで,トラッキング性能を向上させる,シンプルで効果的な赤外線小物体トラッカーを提案する。
論文 参考訳(メタデータ) (2025-05-08T03:16:03Z) - Spatio-Temporal Bi-directional Cross-frame Memory for Distractor Filtering Point Cloud Single Object Tracking [2.487142846438629]
LIDARポイント内の1つのオブジェクトトラッキングは、コンピュータビジョンにおける重要なタスクである。
既存の手法は、ネットワーク経由の外観マッチングのみに依存するか、連続したフレームからの情報を利用するが、重大な課題に遭遇する。
我々は、これらの課題を緩和するために、STMD-Trackerという、革新的なクロスフレームバイテンポラルモーショントラッカーを設計する。
論文 参考訳(メタデータ) (2024-03-23T13:15:44Z) - Fostc3net:A Lightweight YOLOv5 Based On the Network Structure Optimization [11.969138981034247]
本稿では,モバイル機器向けにカスタマイズされた軽量YOLOv5技術を提案する。
提案モデルでは,検出精度が1%向上し,FLOPが13%減少し,既存のYOLOv5に比べてモデルパラメータが26%減少した。
論文 参考訳(メタデータ) (2024-03-20T16:07:04Z) - Recurrent Vision Transformers for Object Detection with Event Cameras [62.27246562304705]
本稿では,イベントカメラを用いた物体検出のための新しいバックボーンであるリカレントビジョントランス (RVT) を提案する。
RVTは、イベントベースのオブジェクト検出で最先端のパフォーマンスに到達するために、ゼロからトレーニングすることができる。
私たちの研究は、イベントベースのビジョンを超えた研究に役立ち得る効果的なデザイン選択に、新たな洞察をもたらします。
論文 参考訳(メタデータ) (2022-12-11T20:28:59Z) - Minkowski Tracker: A Sparse Spatio-Temporal R-CNN for Joint Object
Detection and Tracking [53.64390261936975]
我々はオブジェクトの検出と追跡を共同で解決するスパース時間R-CNNであるMinkowski Trackerを提案する。
領域ベースCNN(R-CNN)に着想を得て,物体検出器R-CNNの第2段階として動きを追跡することを提案する。
大規模実験では,本手法の総合的な性能向上は4つの要因によることがわかった。
論文 参考訳(メタデータ) (2022-08-22T04:47:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。