論文の概要: Domain Adaptive SiamRPN++ for Object Tracking in the Wild
- arxiv url: http://arxiv.org/abs/2106.07862v1
- Date: Tue, 15 Jun 2021 03:40:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 15:13:12.922727
- Title: Domain Adaptive SiamRPN++ for Object Tracking in the Wild
- Title(参考訳): Domain Adaptive SiamRPN++ for Object Tracking in the Wild
- Authors: Zhongzhou Zhang, Lei Zhang
- Abstract要約: 我々は、トラッカーのクロスドメイン転送性とロバスト性を改善するために、Domain Adaptive SiamRPN++を導入する。
A-距離理論に着想を得て,Pixel Domain Adaptation (PDA) と Semantic Domain Adaptation (SDA) の2つのドメイン適応モジュールを提案する。
PDAモジュールはテンプレートと検索領域の画像の特徴マップを整列し、ピクセルレベルのドメインシフトを排除する。
SDAモジュールは、セマンティックレベルのドメインシフトを排除するために、トラッキングターゲットの外観の特徴表現を整列する。
- 参考スコア(独自算出の注目度): 10.61438063305309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benefit from large-scale training data, recent advances in Siamese-based
object tracking have achieved compelling results on the normal sequences.
Whilst Siamese-based trackers assume training and test data follow an identical
distribution. Suppose there is a set of foggy or rainy test sequences, it
cannot be guaranteed that the trackers trained on the normal images perform
well on the data belonging to other domains. The problem of domain shift among
training and test data has already been discussed in object detection and
semantic segmentation areas, which, however, has not been investigated for
visual tracking. To this end, based on SiamRPN++, we introduce a Domain
Adaptive SiamRPN++, namely DASiamRPN++, to improve the cross-domain
transferability and robustness of a tracker. Inspired by A-distance theory, we
present two domain adaptive modules, Pixel Domain Adaptation (PDA) and Semantic
Domain Adaptation (SDA). The PDA module aligns the feature maps of template and
search region images to eliminate the pixel-level domain shift caused by
weather, illumination, etc. The SDA module aligns the feature representations
of the tracking target's appearance to eliminate the semantic-level domain
shift. PDA and SDA modules reduce the domain disparity by learning domain
classifiers in an adversarial training manner. The domain classifiers enforce
the network to learn domain-invariant feature representations. Extensive
experiments are performed on the standard datasets of two different domains,
including synthetic foggy and TIR sequences, which demonstrate the
transferability and domain adaptability of the proposed tracker.
- Abstract(参考訳): 大規模トレーニングデータの恩恵を受けることにより、シャム語に基づくオブジェクト追跡の最近の進歩は、通常のシーケンスで説得力のある結果を得た。
siameseベースのトラッカーはトレーニングとテストのデータは同じディストリビューションに従っている。
霧や雨の連続したテストシーケンスが存在すると仮定すると、通常の画像で訓練されたトラッカーが他のドメインに属するデータに対して良好に動作することを保証できない。
トレーニングデータとテストデータ間のドメインシフトの問題は、オブジェクト検出やセマンティックセグメンテーション領域で既に議論されているが、視覚的追跡については検討されていない。
この目的のために,SiamRPN++をベースとしたDomain Adaptive SiamRPN++,すなわちDASiamRPN++を導入し,トラッカーのクロスドメイン転送性とロバスト性を改善する。
A-距離理論に着想を得て,Pixel Domain Adaptation (PDA) と Semantic Domain Adaptation (SDA) の2つのドメイン適応モジュールを提案する。
PDAモジュールはテンプレートと検索領域の画像の特徴マップを整列して、天気や照明などによる画素レベルの領域シフトを除去する。
SDAモジュールは、セマンティックレベルのドメインシフトを排除するために、トラッキングターゲットの外観の特徴表現を整列する。
PDAとSDAモジュールは、ドメイン分類器を敵の訓練方法で学習することで、ドメインの格差を低減する。
ドメイン分類器はネットワークにドメイン不変の特徴表現を学習させる。
提案するトラッカの転送性とドメイン適応性を示す合成フォギーとtir配列を含む2つの異なるドメインの標準データセットについて,広範な実験を行った。
関連論文リスト
- A Pairwise DomMix Attentive Adversarial Network for Unsupervised Domain Adaptive Object Detection [18.67853854539245]
教師なしドメイン適応オブジェクト検出(DAOD)は、ソースドメインでトレーニングされたモデルを未ラベルのターゲットドメインに適応させ、オブジェクト検出を行う。
本稿では,上記の課題を軽減するために,Domain Mixup (DomMix) モジュールを用いた対角対向ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-03T06:25:20Z) - Compositional Semantic Mix for Domain Adaptation in Point Cloud
Segmentation [65.78246406460305]
合成意味混合は、ポイントクラウドセグメンテーションのための最初の教師なし領域適応技術である。
本稿では、ソースドメイン(例えば合成)からの点雲とターゲットドメイン(例えば実世界)からの点雲を同時に処理できる2分岐対称ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-08-28T14:43:36Z) - Domain-Invariant Proposals based on a Balanced Domain Classifier for
Object Detection [8.583307102907295]
画像からのオブジェクト認識は、興味のあるオブジェクトを自動的に見つけ、カテゴリと位置情報を返すことを意味する。
畳み込みニューラルネットワーク(CNN)や生成的敵ネットワークといった深層学習の研究により、この分野のパフォーマンスは大幅に改善された。
分布のミスマッチ、すなわちドメインシフトは、大幅なパフォーマンス低下につながります。
論文 参考訳(メタデータ) (2022-02-12T00:21:27Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - MADAN: Multi-source Adversarial Domain Aggregation Network for Domain
Adaptation [58.38749495295393]
ドメイン適応は、あるラベル付きソースドメインと、わずかにラベル付けまたはラベル付けされていないターゲットドメインの間のドメインシフトをブリッジするために、転送可能なモデルを学ぶことを目的としています。
近年のマルチソース領域適応法(MDA)では,ソースとターゲット間の画素レベルのアライメントは考慮されていない。
これらの課題に対処するための新しいMDAフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T21:22:00Z) - Unsupervised Domain Adaptive Object Detection using Forward-Backward
Cyclic Adaptation [13.163271874039191]
本稿では,フォワード・バック・サイクリック(FBC)トレーニングによる物体検出のための教師なし領域適応手法を提案する。
近年, 対角訓練に基づく領域適応法は, 限界特徴分布アライメントによる領域差最小化に有効であることが示された。
本稿では,後方ホッピングによるソースからターゲットへの適応と,前方通過によるターゲットからソースへの適応を反復的に計算するフォワード・バック・サイクル適応を提案する。
論文 参考訳(メタデータ) (2020-02-03T06:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。