論文の概要: RSINet: Rotation-Scale Invariant Network for Online Visual Tracking
- arxiv url: http://arxiv.org/abs/2011.09153v1
- Date: Wed, 18 Nov 2020 08:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:56:00.450461
- Title: RSINet: Rotation-Scale Invariant Network for Online Visual Tracking
- Title(参考訳): RSINet: オンラインビジュアルトラッキングのための回転スケール不変ネットワーク
- Authors: Yang Fang, Geun-Sik Jo and Chang-Hee Lee
- Abstract要約: ほとんどのネットワークベースのトラッカーは、モデル更新なしで追跡処理を行い、ターゲット固有の変動を適応的に学習することができない。
本稿では、上記の問題に対処する新しい回転スケール不変ネットワーク(RSINet)を提案する。
我々のRSINetトラッカーは、ターゲット・ディトラクタ識別部とローテーション・スケール推定部から構成されており、ローテーションとスケールの知識は、エンドツーエンドでマルチタスク学習法によって明示的に学習することができる。
追加で、追跡モデルは適応的に最適化され、時空間エネルギー制御が更新され、モデル安定性と信頼性が保証され、高いトラッキングが保証される。
- 参考スコア(独自算出の注目度): 7.186849714896344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most Siamese network-based trackers perform the tracking process without
model update, and cannot learn targetspecific variation adaptively. Moreover,
Siamese-based trackers infer the new state of tracked objects by generating
axis-aligned bounding boxes, which contain extra background noise, and are
unable to accurately estimate the rotation and scale transformation of moving
objects, thus potentially reducing tracking performance. In this paper, we
propose a novel Rotation-Scale Invariant Network (RSINet) to address the above
problem. Our RSINet tracker consists of a target-distractor discrimination
branch and a rotation-scale estimation branch, the rotation and scale knowledge
can be explicitly learned by a multi-task learning method in an end-to-end
manner. In addtion, the tracking model is adaptively optimized and updated
under spatio-temporal energy control, which ensures model stability and
reliability, as well as high tracking efficiency. Comprehensive experiments on
OTB-100, VOT2018, and LaSOT benchmarks demonstrate that our proposed RSINet
tracker yields new state-of-the-art performance compared with recent trackers,
while running at real-time speed about 45 FPS.
- Abstract(参考訳): 多くのシームズネットワークベースのトラッカーは、モデル更新なしで追跡処理を行い、ターゲット固有の変動を適応的に学習することができない。
さらに、シアーム系トラッカーは、余分な背景ノイズを含む軸配置境界ボックスを生成し、移動物体の回転とスケール変換を正確に推定できず、追跡性能を低下させる可能性がある。
本稿では,上記の問題に対処するための新しい回転スケール不変ネットワーク(rsinet)を提案する。
我々のRSINetトラッカーは、ターゲット・ディトラクタ識別部とローテーション・スケール推定部から構成されており、ローテーションとスケールの知識はエンドツーエンドでマルチタスク学習法によって明示的に学習することができる。
追加では、追跡モデルを適応的に最適化し、時空間エネルギー制御の下で更新することにより、モデルの安定性と信頼性を保証し、トラッキング効率を向上する。
OTB-100, VOT2018, LaSOTベンチマークの総合的な実験により,提案したRSINetトラッカーは,45FPS程度のリアルタイム速度で動作しながら,最近のトラッカーと比較して新しい最先端性能が得られることを示した。
関連論文リスト
- Temporal Correlation Meets Embedding: Towards a 2nd Generation of JDE-based Real-Time Multi-Object Tracking [52.04679257903805]
共同検出・埋め込み(JDE)トラッカーは多目的追跡(MOT)タスクにおいて優れた性能を示した。
TCBTrackという名前のトラッカーは、複数の公開ベンチマークで最先端のパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2024-07-19T07:48:45Z) - Robust Visual Tracking via Iterative Gradient Descent and Threshold Selection [4.978166837959101]
本稿では, 誤差ベクトルがガウス-ラプラシアン分布に従えば, 良好な性能が得られる新しい線形回帰推定器を提案する。
さらに、IGDTSを生成トラッカーに拡張し、IGDTS距離を適用してサンプルとモデル間のずれを測定する。
いくつかの難解な画像列の実験結果から,提案したトラッカーは既存のトラッカーより優れていた。
論文 参考訳(メタデータ) (2024-06-02T01:51:09Z) - Exploring Dynamic Transformer for Efficient Object Tracking [58.120191254379854]
効率的なトラッキングのための動的トランスフォーマーフレームワークであるDyTrackを提案する。
DyTrackは、様々な入力に対して適切な推論ルートを設定することを学習し、利用可能な計算予算をより活用する。
複数のベンチマークの実験では、DyTrackは単一のモデルで有望な速度精度のトレードオフを実現している。
論文 参考訳(メタデータ) (2024-03-26T12:31:58Z) - Autoregressive Queries for Adaptive Tracking with Spatio-TemporalTransformers [55.46413719810273]
リッチ時間情報は、視覚追跡における複雑なターゲットの出現に不可欠である。
提案手法は,6つの一般的な追跡ベンチマークにおいてトラッカーの性能を向上させる。
論文 参考訳(メタデータ) (2024-03-15T02:39:26Z) - ACTrack: Adding Spatio-Temporal Condition for Visual Object Tracking [0.5371337604556311]
視覚的物体追跡(VOT)において,物体の時間的関係を効果的にモデル化することが重要な課題である
既存の手法は外観に基づく類似性や長期関係モデリングによって追跡され、連続するフレーム間の時間的コンテキストは容易に見過ごされてしまう。
本稿では,大規模な記憶条件を持つ付加的前時間追跡フレームワークであるACTrackについて述べる。このフレームワークは,そのパラメータを凍結することにより,トレーニング済みバックボーンの品質と性能を保ち,トラッキングにおける時間関係をモデル化するためのトレーニング可能な軽量付加性ネットを作成する。
我々は空間的特徴と時間的順序の整合性を確保するための付加的なシアム畳み込みネットワークを設計する。
論文 参考訳(メタデータ) (2024-02-27T07:34:08Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Rotation Equivariant Siamese Networks for Tracking [26.8787636300794]
オブジェクトトラッキングのための回転等価なSiameseネットワーク(RE-SiamNets)を提案する。
SiamNetは、監視されていない方法でオブジェクトのオリエンテーションの変化を推定します。
RE-SiamNetは、回転の問題を非常にうまく処理し、通常のものよりパフォーマンスが高いことを示しています。
論文 参考訳(メタデータ) (2020-12-24T03:06:47Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Cascaded Regression Tracking: Towards Online Hard Distractor
Discrimination [202.2562153608092]
本稿では,2段階の逐次回帰トラッカーを提案する。
第1段階では, 容易に同定可能な負の候補を抽出する。
第2段階では、残留するあいまいな硬質試料をダブルチェックするために、離散サンプリングに基づくリッジ回帰を設計する。
論文 参考訳(メタデータ) (2020-06-18T07:48:01Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。