論文の概要: Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks
- arxiv url: http://arxiv.org/abs/2005.06536v1
- Date: Wed, 13 May 2020 19:05:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 13:26:22.653503
- Title: Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks
- Title(参考訳): 2ストリーム残差畳み込みネットワークを用いたロバストなビジュアルオブジェクト追跡
- Authors: Ning Zhang, Jingen Liu, Ke Wang, Dan Zeng, Tao Mei
- Abstract要約: 視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
- 参考スコア(独自算出の注目度): 62.836429958476735
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The current deep learning based visual tracking approaches have been very
successful by learning the target classification and/or estimation model from a
large amount of supervised training data in offline mode. However, most of them
can still fail in tracking objects due to some more challenging issues such as
dense distractor objects, confusing background, motion blurs, and so on.
Inspired by the human "visual tracking" capability which leverages motion cues
to distinguish the target from the background, we propose a Two-Stream Residual
Convolutional Network (TS-RCN) for visual tracking, which successfully exploits
both appearance and motion features for model update. Our TS-RCN can be
integrated with existing deep learning based visual trackers. To further
improve the tracking performance, we adopt a "wider" residual network ResNeXt
as its feature extraction backbone. To the best of our knowledge, TS-RCN is the
first end-to-end trainable two-stream visual tracking system, which makes full
use of both appearance and motion features of the target. We have extensively
evaluated the TS-RCN on most widely used benchmark datasets including VOT2018,
VOT2019, and GOT-10K. The experiment results have successfully demonstrated
that our two-stream model can greatly outperform the appearance based tracker,
and it also achieves state-of-the-art performance. The tracking system can run
at up to 38.1 FPS.
- Abstract(参考訳): 現在のディープラーニングに基づくビジュアルトラッキングアプローチは、オフラインモードで大量の教師付きトレーニングデータからターゲット分類と/または推定モデルを学ぶことで、非常に成功した。
しかし、そのほとんどは、密集した邪魔物、背景の混乱、動きのぼやけなど、より困難な問題のために、オブジェクトの追跡に失敗する可能性がある。
動きの手がかりを利用して背景とターゲットを区別する「視覚追跡」機能に触発されて,視覚追跡のための2つの流れ残差畳み込みネットワーク(ts-rcn)を提案する。
私たちのts-rcnは、既存のディープラーニングベースのビジュアルトラッカーと統合できます。
追跡性能をさらに向上するため,特徴抽出バックボーンとして"ワイド"な残差ネットワークresnextを採用する。
我々の知る限り、TS-RCNは最初のエンドツーエンドのトレーニング可能な2ストリームビジュアルトラッキングシステムであり、ターゲットの外観と動きの両方をフル活用しています。
我々は、VOT2018、VOT2019、GOT-10Kなど、最も広く使われているベンチマークデータセット上でTS-RCNを広範囲に評価してきた。
実験の結果,2つのストリームモデルが出現型トラッカを大幅に上回り,最先端のパフォーマンスを達成できることが実証できた。
トラッキングシステムは最大38.1 FPSで動作可能である。
関連論文リスト
- OneTracker: Unifying Visual Object Tracking with Foundation Models and Efficient Tuning [33.521077115333696]
我々は、OneTrackerと呼ばれる様々なトラッキングタスクを統合するための一般的なフレームワークを提案する。
OneTrackerは最初に、Foundation Trackerと呼ばれるRGBトラッカーで大規模な事前トレーニングを行う。
次に、他のモダリティ情報をプロンプトとみなし、Foundation Tracker上にPrompt Trackerを構築する。
論文 参考訳(メタデータ) (2024-03-14T17:59:13Z) - Tracking with Human-Intent Reasoning [64.69229729784008]
この作業では、新しいトラッキングタスクであるインストラクショントラッキングを提案している。
ビデオフレーム内で自動的にトラッキングを実行するようにトラッカーに要求する暗黙の追跡命令を提供する。
TrackGPTは複雑な推論ベースの追跡を行うことができる。
論文 参考訳(メタデータ) (2023-12-29T03:22:18Z) - BEVTrack: A Simple and Strong Baseline for 3D Single Object Tracking in Bird's-Eye View [56.77287041917277]
3Dシングルオブジェクトトラッキング(SOT)はコンピュータビジョンの基本課題であり、自律運転のようなアプリケーションに不可欠なことを証明している。
本稿では,単純で効果的なベースライン手法であるBEVTrackを提案する。
Bird's-Eye View (BEV) における目標運動を推定して追跡を行うことにより、BEVTrackは、ネットワーク設計、トレーニング目標、トラッキングパイプラインなど、様々な側面から驚くほどの単純さを示しながら、優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-09-05T12:42:26Z) - Simple Cues Lead to a Strong Multi-Object Tracker [3.7189423451031356]
マルチオブジェクト追跡のための新しいタイプのトラッキング・バイ・ディテクト(TbD)を提案する。
単純な動作モデルと外観特徴を組み合わせることで,強い追跡結果が得られることを示す。
私たちのトラッカーは、MOT17、MOT20、BDD100k、DanceTrackの4つの公開データセットに一般化され、最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2022-06-09T17:55:51Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - Track to Detect and Segment: An Online Multi-Object Tracker [81.15608245513208]
TraDeSは、エンドツーエンドの検出を支援するために追跡の手がかりを利用するオンライン共同検出および追跡モデルです。
TraDeSは、以前のオブジェクトの機能を伝播するために使用されるコストボリュームでオブジェクト追跡オフセットを推測します。
論文 参考訳(メタデータ) (2021-03-16T02:34:06Z) - Coarse-to-Fine Object Tracking Using Deep Features and Correlation
Filters [2.3526458707956643]
本稿では,新しいディープラーニング追跡アルゴリズムを提案する。
対象の翻訳を大まかに推定するために,深層特徴の一般化能力を利用する。
そして,相関フィルタの識別力を利用して追跡対象を正確に局所化する。
論文 参考訳(メタデータ) (2020-12-23T16:43:21Z) - TRAT: Tracking by Attention Using Spatio-Temporal Features [14.520067060603209]
空間的特徴と時間的特徴の両方を利用する2ストリームディープニューラルネットワークトラッカーを提案する。
我々のアーキテクチャはATOMトラッカー上で開発され、 (i) 外観特徴を捉える2D-CNNネットワークと (ii) 動作特徴を捉える3D-CNNネットワークの2つのバックボーンを含んでいる。
論文 参考訳(メタデータ) (2020-11-18T20:11:12Z) - Unsupervised Deep Representation Learning for Real-Time Tracking [137.69689503237893]
視覚追跡のための教師なし学習手法を提案する。
教師なし学習の動機は、ロバストなトラッカーが双方向トラッキングに有効であるべきだということです。
我々は,シームズ相関フィルタネットワーク上にフレームワークを構築し,教師なし学習を容易にするために,多フレーム検証方式とコスト感受性損失を提案する。
論文 参考訳(メタデータ) (2020-07-22T08:23:12Z) - Rethinking Convolutional Features in Correlation Filter Based Tracking [0.0]
我々は階層的な機能ベースのビジュアルトラッカーを再検討し、ディープトラッカーの性能と効率の両方が、機能品質の低さによって制限されていることを発見した。
冗長な機能を取り除いた後、提案するトラッカーは性能と効率の両方で大幅に改善される。
論文 参考訳(メタデータ) (2019-12-30T04:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。