論文の概要: RSINet: Rotation-Scale Invariant Network for Online Visual Tracking
- arxiv url: http://arxiv.org/abs/2011.09153v1
- Date: Wed, 18 Nov 2020 08:19:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 03:56:00.450461
- Title: RSINet: Rotation-Scale Invariant Network for Online Visual Tracking
- Title(参考訳): RSINet: オンラインビジュアルトラッキングのための回転スケール不変ネットワーク
- Authors: Yang Fang, Geun-Sik Jo and Chang-Hee Lee
- Abstract要約: ほとんどのネットワークベースのトラッカーは、モデル更新なしで追跡処理を行い、ターゲット固有の変動を適応的に学習することができない。
本稿では、上記の問題に対処する新しい回転スケール不変ネットワーク(RSINet)を提案する。
我々のRSINetトラッカーは、ターゲット・ディトラクタ識別部とローテーション・スケール推定部から構成されており、ローテーションとスケールの知識は、エンドツーエンドでマルチタスク学習法によって明示的に学習することができる。
追加で、追跡モデルは適応的に最適化され、時空間エネルギー制御が更新され、モデル安定性と信頼性が保証され、高いトラッキングが保証される。
- 参考スコア(独自算出の注目度): 7.186849714896344
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most Siamese network-based trackers perform the tracking process without
model update, and cannot learn targetspecific variation adaptively. Moreover,
Siamese-based trackers infer the new state of tracked objects by generating
axis-aligned bounding boxes, which contain extra background noise, and are
unable to accurately estimate the rotation and scale transformation of moving
objects, thus potentially reducing tracking performance. In this paper, we
propose a novel Rotation-Scale Invariant Network (RSINet) to address the above
problem. Our RSINet tracker consists of a target-distractor discrimination
branch and a rotation-scale estimation branch, the rotation and scale knowledge
can be explicitly learned by a multi-task learning method in an end-to-end
manner. In addtion, the tracking model is adaptively optimized and updated
under spatio-temporal energy control, which ensures model stability and
reliability, as well as high tracking efficiency. Comprehensive experiments on
OTB-100, VOT2018, and LaSOT benchmarks demonstrate that our proposed RSINet
tracker yields new state-of-the-art performance compared with recent trackers,
while running at real-time speed about 45 FPS.
- Abstract(参考訳): 多くのシームズネットワークベースのトラッカーは、モデル更新なしで追跡処理を行い、ターゲット固有の変動を適応的に学習することができない。
さらに、シアーム系トラッカーは、余分な背景ノイズを含む軸配置境界ボックスを生成し、移動物体の回転とスケール変換を正確に推定できず、追跡性能を低下させる可能性がある。
本稿では,上記の問題に対処するための新しい回転スケール不変ネットワーク(rsinet)を提案する。
我々のRSINetトラッカーは、ターゲット・ディトラクタ識別部とローテーション・スケール推定部から構成されており、ローテーションとスケールの知識はエンドツーエンドでマルチタスク学習法によって明示的に学習することができる。
追加では、追跡モデルを適応的に最適化し、時空間エネルギー制御の下で更新することにより、モデルの安定性と信頼性を保証し、トラッキング効率を向上する。
OTB-100, VOT2018, LaSOTベンチマークの総合的な実験により,提案したRSINetトラッカーは,45FPS程度のリアルタイム速度で動作しながら,最近のトラッカーと比較して新しい最先端性能が得られることを示した。
関連論文リスト
- S.T.A.R.-Track: Latent Motion Models for End-to-End 3D Object Tracking
with Adaptive Spatio-Temporal Appearance Representations [11.089640629116547]
トラッキング・バイ・アテンションのパラダイムに従って,3次元トラッキングのためのオブジェクト中心のトランスフォーマーベースのフレームワークを提案する。
そこで我々はS.T.A.R.-Trackを提案する。これは新しい潜伏運動モデル(LMM)を用いてオブジェクトクエリを調整し、潜伏空間における視方向や照明条件の変化を考慮に入れている。
論文 参考訳(メタデータ) (2023-06-30T12:22:41Z) - Propagate And Calibrate: Real-time Passive Non-line-of-sight Tracking [84.38335117043907]
本研究では,リレー壁のみを観察することで,見えない部屋を歩いている人を追跡する純粋受動的手法を提案する。
本研究では,リレー壁の映像の非知覚的変化を発掘するため,時間的局所的な動きの伝達に欠かせない特徴として差分フレームを導入する。
提案手法を評価するため,最初の動的受動NLOS追跡データセットであるNLOS-Trackを構築し,公開する。
論文 参考訳(メタデータ) (2023-03-21T12:18:57Z) - A Bayesian Detect to Track System for Robust Visual Object Tracking and
Semi-Supervised Model Learning [1.7268829007643391]
ニューラルネットワークの出力によってパラメータ化されたベイズ追跡・検出フレームワークにおける副次的問題について述べる。
本稿では,粒子フィルタを用いた物体状態推定のための近似サンプリングアルゴリズムを提案する。
粒子フィルタ推論アルゴリズムを用いて,間欠的なラベル付きフレーム上でのトラッキングネットワークの学習に半教師付き学習アルゴリズムを用いる。
論文 参考訳(メタデータ) (2022-05-05T00:18:57Z) - Unsupervised Learning of Accurate Siamese Tracking [68.58171095173056]
分類枝と回帰枝の両方で時間対応を学習できる新しい教師なし追跡フレームワークを提案する。
トラッカーは、トラッカーネットやLaSOTのような大規模データセット上で、教師なしの手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2022-04-04T13:39:43Z) - Video Annotation for Visual Tracking via Selection and Refinement [74.08109740917122]
ビデオシーケンスのバウンディングボックスアノテーションを容易にするための新しいフレームワークを提案する。
目標位置の時間的コヒーレンスを捉えることのできる時間的アセスメントネットワークを提案する。
また、選択したトラッキング結果をさらに強化するために、ビジュアルジオメトリ・リファインメント・ネットワークが設計されている。
論文 参考訳(メタデータ) (2021-08-09T05:56:47Z) - Rotation Equivariant Siamese Networks for Tracking [26.8787636300794]
オブジェクトトラッキングのための回転等価なSiameseネットワーク(RE-SiamNets)を提案する。
SiamNetは、監視されていない方法でオブジェクトのオリエンテーションの変化を推定します。
RE-SiamNetは、回転の問題を非常にうまく処理し、通常のものよりパフォーマンスが高いことを示しています。
論文 参考訳(メタデータ) (2020-12-24T03:06:47Z) - Object Tracking through Residual and Dense LSTMs [67.98948222599849]
LSTM(Long Short-Term Memory)リカレントニューラルネットワークに基づくディープラーニングベースのトラッカーが、強力な代替手段として登場した。
DenseLSTMはResidualおよびRegular LSTMより優れ、ニュアンセに対する高いレジリエンスを提供する。
ケーススタディは、他のトラッカーの堅牢性を高めるために残差ベースRNNの採用を支援する。
論文 参考訳(メタデータ) (2020-06-22T08:20:17Z) - Cascaded Regression Tracking: Towards Online Hard Distractor
Discrimination [202.2562153608092]
本稿では,2段階の逐次回帰トラッカーを提案する。
第1段階では, 容易に同定可能な負の候補を抽出する。
第2段階では、残留するあいまいな硬質試料をダブルチェックするために、離散サンプリングに基づくリッジ回帰を設計する。
論文 参考訳(メタデータ) (2020-06-18T07:48:01Z) - AFAT: Adaptive Failure-Aware Tracker for Robust Visual Object Tracking [46.82222972389531]
Siameseのアプローチは近年、ビジュアルオブジェクト追跡において有望なパフォーマンスを実現している。
Siameseパラダイムは、オンライントラッキングタスクをモデル化するためにワンショット学習を使用し、トラッキングプロセスにおけるオンライン適応を妨げる。
本稿では,コンボリューショナルモジュールとLSTMモジュールをベースとしたフェールアウェアシステムを提案する。
論文 参考訳(メタデータ) (2020-05-27T23:21:12Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。