論文の概要: UETrack: A Unified and Efficient Framework for Single Object Tracking
- arxiv url: http://arxiv.org/abs/2603.01412v2
- Date: Tue, 03 Mar 2026 06:18:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 14:54:12.558579
- Title: UETrack: A Unified and Efficient Framework for Single Object Tracking
- Title(参考訳): UETrack: 単一オブジェクト追跡のための統一的で効率的なフレームワーク
- Authors: Ben Kang, Jie Zhao, Xin Chen, Wanting Geng, Bin Zhang, Lu Zhang, Dong Wang, Huchuan Lu,
- Abstract要約: UETrackは単一のオブジェクト追跡のための効率的なフレームワークである。
RGB、Depth、Therical、Event、Languageといった複数のモダリティを効率的に扱う。
従来の手法に比べて、速度精度のトレードオフが優れている。
- 参考スコア(独自算出の注目度): 46.50641228786134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With growing real-world demands, efficient tracking has received increasing attention. However, most existing methods are limited to RGB inputs and struggle in multi-modal scenarios. Moreover, current multi-modal tracking approaches typically use complex designs, making them too heavy and slow for resource-constrained deployment. To tackle these limitations, we propose UETrack, an efficient framework for single object tracking. UETrack demonstrates high practicality and versatility, efficiently handling multiple modalities including RGB, Depth, Thermal, Event, and Language, and addresses the gap in efficient multi-modal tracking. It introduces two key components: a Token-Pooling-based Mixture-of-Experts mechanism that enhances modeling capacity through feature aggregation and expert specialization, and a Target-aware Adaptive Distillation strategy that selectively performs distillation based on sample characteristics, reducing redundant supervision and improving performance. Extensive experiments on 12 benchmarks across 3 hardware platforms show that UETrack achieves a superior speed-accuracy trade-off compared to previous methods. For instance, UETrack-B achieves 69.2% AUC on LaSOT and runs at 163/56/60 FPS on GPU/CPU/AGX, demonstrating strong practicality and versatility. Code is available at https://github.com/kangben258/UETrack.
- Abstract(参考訳): 現実世界の需要の増加に伴い、効率的なトラッキングが注目を集めている。
しかし、既存の手法のほとんどはRGB入力に限られており、マルチモーダルシナリオで苦労している。
さらに、現在のマルチモーダルトラッキングアプローチでは、一般的に複雑な設計を使用するため、リソース制約のあるデプロイメントでは重すぎて遅すぎる。
これらの制約に対処するため,単一オブジェクト追跡のための効率的なフレームワークであるUETrackを提案する。
UETrackは高い実用性と汎用性を示し、RGB、深さ、熱、イベント、言語など複数のモードを効率的に処理し、効率的なマルチモーダルトラッキングのギャップに対処する。
Token-PoolingベースのMixture-of-Expertsメカニズムは特徴集約と専門家の専門化を通じてモデリング能力を向上させる。
3つのハードウェアプラットフォームにまたがる12のベンチマークの大規模な実験により、UETrackは従来の方法よりも高速なトレードオフを達成している。
例えば、UETrack-BはLaSOT上で69.2%のAUCを獲得し、GPU/CPU/AGXで163/56/60 FPSで動作する。
コードはhttps://github.com/kangben258/UETrack.comから入手できる。
関連論文リスト
- UTPTrack: Towards Simple and Unified Token Pruning for Visual Tracking [23.83535022949326]
ワンストリームトランスフォーマーベースのトラッカーは、視覚的物体追跡において高度な性能を達成するが、計算上のオーバーヘッドに悩まされる。
UTPTrackは、シンプルで統一されたToken Pruningフレームワークで、初めて3つのコンポーネント全てを共同で圧縮する。
10ベンチマークの大規模な評価は、UTPTrackがプルーニングベースのトラッカーの精度と効率のトレードオフにおいて、新たな最先端を実現していることを示している。
論文 参考訳(メタデータ) (2026-02-27T06:58:09Z) - UBATrack: Spatio-Temporal State Space Model for General Multi-Modal Tracking [40.8191099453086]
UBATrackと呼ばれる,マンバスタイルの状態に基づく新しいマルチモーダルトラッキングフレームワークを提案する。
UBATrack は S-temporal Mamba Adapter (MA) と Dynamic Multi-modal Feature Mixer の2つの単純かつ効果的な作業空間から構成されている。
実験により、UBATrackはRGB-T、RGB-D、RGB-E追跡ベンチマークにおいて最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2026-01-21T09:24:19Z) - Towards Low-Latency Event Stream-based Visual Object Tracking: A Slow-Fast Approach [32.91982063297922]
我々は,SFTrackと呼ばれる,異なる運用要件に柔軟に対応する新しいスローファストトラッキングパラダイムを提案する。
提案するフレームワークは2つの補完モード,すなわち,十分な計算資源を持つシナリオを対象とした高精度なスロートラッカと,レイテンシを意識したリソース制約のある環境に適した効率的な高速トラッカをサポートする。
このフレームワークは,まず高時間分解能イベントストリームからグラフベースの表現学習を行い,学習したグラフ構造化情報を2つのFlashAttentionベースのビジョンバックボーンに統合する。
論文 参考訳(メタデータ) (2025-05-19T09:37:23Z) - CAMELTrack: Context-Aware Multi-cue ExpLoitation for Online Multi-Object Tracking [68.24998698508344]
CAMELはコンテキスト対応型マルチキューExpLoitationのための新しいアソシエイトモジュールである。
エンド・ツー・エンドの検知・バイ・トラック方式とは異なり,本手法は軽量かつ高速にトレーニングが可能であり,外部のオフ・ザ・シェルフモデルを活用することができる。
提案するオンライントラッキングパイプラインであるCAMELTrackは,複数のトラッキングベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-05-02T13:26:23Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Single-Model and Any-Modality for Video Object Tracking [85.83753760853142]
任意のモダリティに対して単一のパラメータセットの統一トラッカーUn-Trackを導入する。
任意のモダリティを扱うために,低ランク因子化および再構成手法を用いて,それらの共通潜時空間を学習する。
我々のUn-Trackは、+6.6M(93M以上)のパラメータを持つ+2.14(21.50以上)のGFLOPを導入することで、DepthTrackデータセット上で、+8.1絶対Fスコアゲインを達成する。
論文 参考訳(メタデータ) (2023-11-27T14:17:41Z) - Prompting for Multi-Modal Tracking [70.0522146292258]
マルチモーダルトラッキングのための新しいマルチモーダルプロンプトトラッカー(ProTrack)を提案する。
ProTrackはプロンプトパラダイムにより、マルチモーダル入力を単一モーダルに変換することができる。
我々のProTrackは、マルチモーダルデータに余分な訓練を加えることなく、入力を変更するだけで高性能なマルチモーダルトラッキングを実現することができる。
論文 参考訳(メタデータ) (2022-07-29T09:35:02Z) - Joint Feature Learning and Relation Modeling for Tracking: A One-Stream
Framework [76.70603443624012]
特徴学習と関係モデリングを統合した新しい一ストリーム追跡(OSTrack)フレームワークを提案する。
このようにして、相互誘導により識別的目標指向特徴を動的に抽出することができる。
OSTrackは、複数のベンチマークで最先端のパフォーマンスを実現しており、特に、ワンショットトラッキングベンチマークのGOT-10kでは印象的な結果を示している。
論文 参考訳(メタデータ) (2022-03-22T18:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。