論文の概要: RTrack: Accelerating Convergence for Visual Object Tracking via
Pseudo-Boxes Exploration
- arxiv url: http://arxiv.org/abs/2309.13257v1
- Date: Sat, 23 Sep 2023 04:41:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 21:03:28.757597
- Title: RTrack: Accelerating Convergence for Visual Object Tracking via
Pseudo-Boxes Exploration
- Title(参考訳): RTrack: Pseudo-Boxesによるビジュアルオブジェクト追跡の収束の高速化
- Authors: Guotian Zeng, Bi Zeng, Hong Zhang, Jianqi Liu and Qingmao Wei
- Abstract要約: 単一のオブジェクト追跡(SOT)は、ターゲットオブジェクトをバウンディングボックスとして表現することに大きく依存している。
本稿では,新しいオブジェクト表現ベースライントラッカーRTrackを提案する。
RTrackは自動的に点を配置して空間範囲を定義し、局所領域をハイライトする。
- 参考スコア(独自算出の注目度): 3.29854706649876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single object tracking (SOT) heavily relies on the representation of the
target object as a bounding box. However, due to the potential deformation and
rotation experienced by the tracked targets, the genuine bounding box fails to
capture the appearance information explicitly and introduces cluttered
background. This paper proposes RTrack, a novel object representation baseline
tracker that utilizes a set of sample points to get a pseudo bounding box.
RTrack automatically arranges these points to define the spatial extents and
highlight local areas. Building upon the baseline, we conducted an in-depth
exploration of the training potential and introduced a one-to-many leading
assignment strategy. It is worth noting that our approach achieves competitive
performance to the state-of-the-art trackers on the GOT-10k dataset while
reducing training time to just 10% of the previous state-of-the-art (SOTA)
trackers' training costs. The substantial reduction in training costs brings
single-object tracking (SOT) closer to the object detection (OD) task.
Extensive experiments demonstrate that our proposed RTrack achieves SOTA
results with faster convergence.
- Abstract(参考訳): 単一オブジェクトトラッキング(sot)は、対象オブジェクトをバウンディングボックスとして表現することに大きく依存する。
しかし、追跡対象が経験する潜在的な変形と回転のため、真のバウンディングボックスは外観情報を明示的に捉えず、乱れの背景を導入する。
本稿では,サンプル点の集合を利用して擬似境界ボックスを得る新しいオブジェクト表現ベースライントラッカーRTrackを提案する。
RTrackはこれらの点を自動的に配置して空間範囲を定義し、局所領域をハイライトする。
ベースラインを構築して,トレーニングの可能性の詳細な調査を行い,一対多の指導戦略を導入した。
GOT-10kデータセットの最先端トラッカーと競合する性能を達成し、トレーニング時間を従来の最先端トラッカー(SOTA)のトレーニングコストの10%に削減した点に注意が必要だ。
トレーニングコストの大幅な削減は、単目的追跡(SOT)をオブジェクト検出(OD)タスクに近づける。
提案したRTrackはより高速な収束でSOTA結果が得られることを示した。
関連論文リスト
- ClickTrack: Towards Real-time Interactive Single Object Tracking [58.52366657445601]
リアルタイムシナリオにおけるクリックインタラクションを用いた新しいパラダイムであるClickTrackを提案する。
特定のシナリオにおける曖昧さに対処するために、ポイントとオプションのテキスト情報を入力として受け入れるガイド・クリック・リファイナ(GCR)を設計した。
LaSOTとGOT-10kベンチマークの実験により、GCRと組み合わせたトラッカーがリアルタイムの対話シナリオで安定したパフォーマンスを実現することが示された。
論文 参考訳(メタデータ) (2024-11-20T10:30:33Z) - OneTracker: Unifying Visual Object Tracking with Foundation Models and Efficient Tuning [33.521077115333696]
我々は、OneTrackerと呼ばれる様々なトラッキングタスクを統合するための一般的なフレームワークを提案する。
OneTrackerは最初に、Foundation Trackerと呼ばれるRGBトラッカーで大規模な事前トレーニングを行う。
次に、他のモダリティ情報をプロンプトとみなし、Foundation Tracker上にPrompt Trackerを構築する。
論文 参考訳(メタデータ) (2024-03-14T17:59:13Z) - Unsupervised Green Object Tracker (GOT) without Offline Pre-training [35.60210259607753]
グリーン・オブジェクト・トラッカー(GOT)と呼ばれる新しい単一物体追跡手法を提案する。
GOTは、最先端の教師なしトラッカーと競合する追跡精度を提供する。
GOTは小さなモデルサイズ(3kパラメータ)と低い推論複雑性(フレームあたり約58万FLOP)を持つ。
論文 参考訳(メタデータ) (2023-09-16T19:00:56Z) - Unifying Tracking and Image-Video Object Detection [54.91658924277527]
TrIVD (Tracking and Image-Video Detection) は、画像OD、ビデオOD、MOTを1つのエンドツーエンドモデルに統合する最初のフレームワークである。
カテゴリラベルの相違やセマンティックな重複に対処するため、TrIVDは対象カテゴリに対する検出/追跡を基礎と理由として定式化している。
論文 参考訳(メタデータ) (2022-11-20T20:30:28Z) - CXTrack: Improving 3D Point Cloud Tracking with Contextual Information [59.55870742072618]
3Dオブジェクトトラッキングは、自律運転など、多くのアプリケーションにおいて重要な役割を果たす。
CXTrackは3次元オブジェクト追跡のためのトランスフォーマーベースのネットワークである。
CXTrackは29FPSで動作しながら最先端のトラッキング性能を実現する。
論文 参考訳(メタデータ) (2022-11-12T11:29:01Z) - SRRT: Exploring Search Region Regulation for Visual Object Tracking [58.68120400180216]
探索領域規則追跡(SRRT)と呼ばれる新しい追跡パラダイムを提案する。
SRRTでは,各フレームに対して最適な探索領域を動的に推定するために,提案された探索領域レギュレータを適用している。
大規模なLaSOTベンチマークでは、SRRTはSiamRPN++とTransTをAUCの4.6%と3.1%で改善した。
論文 参考訳(メタデータ) (2022-07-10T11:18:26Z) - Unified Transformer Tracker for Object Tracking [58.65901124158068]
異なるシナリオにおけるトラッキング問題に1つのパラダイムで対処するために,UTT(Unified Transformer Tracker)を提案する。
SOT(Single Object Tracking)とMOT(Multiple Object Tracking)の両方を対象とするトラックトランスフォーマーを開発した。
論文 参考訳(メタデータ) (2022-03-29T01:38:49Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - TDIOT: Target-driven Inference for Deep Video Object Tracking [0.2457872341625575]
本研究では,事前訓練したMask R-CNNディープオブジェクト検出器をベースラインとして採用する。
本研究では,Mask R-CNNのFPN-ResNet101バックボーン上に新しい推論アーキテクチャを導入し,検出と追跡を共同で行う。
提案する単一オブジェクトトラッカであるtdiotは、データアソシエーションに外観類似性に基づく時間マッチングを適用する。
論文 参考訳(メタデータ) (2021-03-19T20:45:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。