論文の概要: Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking
- arxiv url: http://arxiv.org/abs/2106.10900v1
- Date: Mon, 21 Jun 2021 07:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:31:06.345423
- Title: Crop-Transform-Paste: Self-Supervised Learning for Visual Tracking
- Title(参考訳): Crop-Transform-Paste:視覚追跡のための自己監督型学習
- Authors: Xin Li, Wenjie Pei, Zikun Zhou, Zhenyu He, Huchuan Lu, Ming-Hsuan Yang
- Abstract要約: 本研究では,十分なトレーニングデータを合成できるCrop-Transform-Paste演算を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカーは人間のアノテーションなしで日常的に訓練することができる。
- 参考スコア(独自算出の注目度): 137.26381337333552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While deep-learning based methods for visual tracking have achieved
substantial progress, these schemes entail large-scale and high-quality
annotated data for sufficient training. To eliminate expensive and exhaustive
annotation, we study self-supervised learning for visual tracking. In this
work, we develop the Crop-Transform-Paste operation, which is able to
synthesize sufficient training data by simulating various kinds of scene
variations during tracking, including appearance variations of objects and
background changes. Since the object state is known in all synthesized data,
existing deep trackers can be trained in routine ways without human annotation.
Different from typical self-supervised learning methods performing visual
representation learning as an individual step, the proposed self-supervised
learning mechanism can be seamlessly integrated into any existing tracking
framework to perform training. Extensive experiments show that our method 1)
achieves favorable performance than supervised learning in few-shot tracking
scenarios; 2) can deal with various tracking challenges such as object
deformation, occlusion, or background clutter due to its design; 3) can be
combined with supervised learning to further boost the performance,
particularly effective in few-shot tracking scenarios.
- Abstract(参考訳): ビジュアルトラッキングのためのディープラーニングベースの手法は大きな進歩を遂げているが、これらのスキームは十分なトレーニングのために大規模で高品質な注釈付きデータを必要とする。
本研究では,視覚追跡のための自己教師あり学習について検討する。
本研究では,対象物の外観変化や背景変化など,追跡中の各種シーン変動をシミュレートして十分なトレーニングデータを合成できる作物変換・ペースト操作を開発した。
オブジェクトの状態はすべての合成データで知られているので、既存のディープトラッカは人間のアノテーションなしでルーチン的にトレーニングすることができる。
視覚表現学習を個別のステップとして行う典型的な自己教師学習方法とは異なり、提案した自己教師学習機構は既存のトラッキングフレームワークにシームレスに統合してトレーニングを行うことができる。
広範な実験により,1) マイショット追跡シナリオにおける教師付き学習よりも良好な性能を実現すること,2) 設計による物体変形, 咬合, 背景クラッタなどの様々な追跡課題を対処できること, 3) 教師付き学習と組み合わせることで, とくにマイショット追跡シナリオにおいて有効であること, が示されている。
関連論文リスト
- Exploring the Evolution of Hidden Activations with Live-Update Visualization [12.377279207342735]
我々は、トレーニング中に隠された表現の進行を明らかにする自動化されたリアルタイム可視化ツールであるSentryCamを紹介した。
以上の結果から, この可視化は, 基礎的指標と比較して, 学習のダイナミクスをより包括的に把握できることが示唆された。
SentryCamは、タスク転送や破滅的な忘れなど、継続的な学習環境への詳細な分析を容易にすることができる。
論文 参考訳(メタデータ) (2024-05-24T01:23:20Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Towards Sequence-Level Training for Visual Tracking [60.95799261482857]
本研究は、強化学習に基づく視覚追跡のためのシーケンスレベルのトレーニング戦略を導入する。
4つの代表的な追跡モデル、SiamRPN++、SiamAttn、TransT、TrDiMPは、提案手法をトレーニングに取り入れることで一貫して改善されている。
論文 参考訳(メタデータ) (2022-08-11T13:15:36Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - Semi-TCL: Semi-Supervised Track Contrastive Representation Learning [40.31083437957288]
我々は、外観埋め込みを学習するために、新しいインスタンス・ツー・トラックマッチングの目的を設計する。
候補検出とトラッカーに永続化されたトラックの埋め込みを比較する。
我々は,この学習目標を,構成的損失の精神に倣って統一的な形で実施する。
論文 参考訳(メタデータ) (2021-07-06T05:23:30Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。