論文の概要: TrackNetV4: Enhancing Fast Sports Object Tracking with Motion Attention Maps
- arxiv url: http://arxiv.org/abs/2409.14543v1
- Date: Sun, 22 Sep 2024 17:58:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 22:19:40.851882
- Title: TrackNetV4: Enhancing Fast Sports Object Tracking with Motion Attention Maps
- Title(参考訳): TrackNetV4: モーションアテンションマップによる高速スポーツオブジェクト追跡の強化
- Authors: Arjun Raj, Lei Wang, Tom Gedeon,
- Abstract要約: 本研究では,高次視覚特徴と学習可能な運動注意マップを融合させることにより,トラックネットファミリーの強化を実現する。
提案手法は,移動プロンプト層によって変調されたフレーム差分マップを利用して,時間とともに重要な動き領域をハイライトする。
我々は、既存のTrackNet上に構築された軽量のプラグイン・アンド・プレイソリューションをTrackNetV4と呼びます。
- 参考スコア(独自算出の注目度): 6.548400020461624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately detecting and tracking high-speed, small objects, such as balls in sports videos, is challenging due to factors like motion blur and occlusion. Although recent deep learning frameworks like TrackNetV1, V2, and V3 have advanced tennis ball and shuttlecock tracking, they often struggle in scenarios with partial occlusion or low visibility. This is primarily because these models rely heavily on visual features without explicitly incorporating motion information, which is crucial for precise tracking and trajectory prediction. In this paper, we introduce an enhancement to the TrackNet family by fusing high-level visual features with learnable motion attention maps through a motion-aware fusion mechanism, effectively emphasizing the moving ball's location and improving tracking performance. Our approach leverages frame differencing maps, modulated by a motion prompt layer, to highlight key motion regions over time. Experimental results on the tennis ball and shuttlecock datasets show that our method enhances the tracking performance of both TrackNetV2 and V3. We refer to our lightweight, plug-and-play solution, built on top of the existing TrackNet, as TrackNetV4.
- Abstract(参考訳): スポーツビデオのボールのような、高速で小さな物体を正確に検出し、追跡することは、動きのぼやけや閉塞などの要因により困難である。
TrackNetV1、V2、V3といった最近のディープラーニングフレームワークには、高度なテニスボールとシャトルコックトラッキングがあるが、部分的な閉塞や可視性の低いシナリオでは、しばしば苦労する。
これは、これらのモデルが運動情報を明示的に組み込むことなく視覚的特徴に強く依存するためであり、これは正確な追跡と軌道予測に不可欠である。
本稿では,移動球の位置を効果的に強調し,追跡性能を向上させるとともに,移動球の位置を効果的に強調し,高次視覚特徴と学習可能な運動注意マップとを融合させることにより,トラックネットファミリーの強化を提案する。
提案手法は,移動プロンプト層によって変調されたフレーム差分マップを利用して,時間とともに重要な動き領域をハイライトする。
テニスボールとシャトルコックデータセットの実験結果から,TrackNetV2とV3のトラッキング性能が向上することが示された。
我々は、既存のTrackNet上に構築された軽量のプラグイン・アンド・プレイソリューションをTrackNetV4と呼びます。
関連論文リスト
- RaTrack: Moving Object Detection and Tracking with 4D Radar Point Cloud [10.593320435411714]
レーダベースのトラッキングに適した革新的なソリューションであるRaTrackを紹介します。
本手法は,動き推定モジュールによって強化された動き分割とクラスタリングに焦点を当てる。
RaTrackは移動物体の追跡精度が優れており、最先端の技術をはるかに上回っている。
論文 参考訳(メタデータ) (2023-09-18T13:02:29Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Delving into Motion-Aware Matching for Monocular 3D Object Tracking [81.68608983602581]
異なる時間軸に沿った物体の運動キューが3次元多物体追跡において重要であることが判明した。
3つの動き認識コンポーネントからなるフレームワークであるMoMA-M3Tを提案する。
我々はnuScenesとKITTIデータセットに関する広範な実験を行い、MoMA-M3Tが最先端の手法と競合する性能を発揮することを実証した。
論文 参考訳(メタデータ) (2023-08-22T17:53:58Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - An Effective Motion-Centric Paradigm for 3D Single Object Tracking in
Point Clouds [50.19288542498838]
LiDARポイントクラウド(LiDAR SOT)における3Dシングルオブジェクトトラッキングは、自動運転において重要な役割を果たす。
現在のアプローチはすべて、外観マッチングに基づくシームズパラダイムに従っている。
我々は新たな視点からLiDAR SOTを扱うための動き中心のパラダイムを導入する。
論文 参考訳(メタデータ) (2023-03-21T17:28:44Z) - Observation Centric and Central Distance Recovery on Sports Player
Tracking [24.396926939889532]
本稿では,バスケットボール,サッカー,バレーボールを含む3つのスポーツを対象とした,モーションベースのトラッキングアルゴリズムと3つのポストプロセッシングパイプラインを提案する。
本手法は,2022年のSportsmotワークショップ最終リーダーボードで3位にランクインした73.968のHOTAを達成した。
論文 参考訳(メタデータ) (2022-09-27T04:48:11Z) - Learning to Track Objects from Unlabeled Videos [63.149201681380305]
本稿では,Unsupervised Single Object Tracker (USOT) をスクラッチから学習することを提案する。
教師なしトラッカーと教師なしトラッカーのギャップを狭めるために,3段階からなる効果的な教師なし学習手法を提案する。
実験の結果、未ラベルのビデオから得られたUSOTは、最先端の教師なしトラッカーよりも大きなマージンでうまく機能していることがわかった。
論文 参考訳(メタデータ) (2021-08-28T22:10:06Z) - Track without Appearance: Learn Box and Tracklet Embedding with Local
and Global Motion Patterns for Vehicle Tracking [45.524183249765244]
車両追跡は多目的追跡(MOT)分野において重要な課題である。
本稿では,外見情報のない車両追跡における動作パターンの重要性について検討する。
本稿では, 長期追跡のための関連課題を, 排他的かつ完全な運動情報を用いて解決する手法を提案する。
論文 参考訳(メタデータ) (2021-08-13T02:27:09Z) - TRAT: Tracking by Attention Using Spatio-Temporal Features [14.520067060603209]
空間的特徴と時間的特徴の両方を利用する2ストリームディープニューラルネットワークトラッカーを提案する。
我々のアーキテクチャはATOMトラッカー上で開発され、 (i) 外観特徴を捉える2D-CNNネットワークと (ii) 動作特徴を捉える3D-CNNネットワークの2つのバックボーンを含んでいる。
論文 参考訳(メタデータ) (2020-11-18T20:11:12Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。