論文の概要: Deep Subdomain Adaptation Network for Image Classification
- arxiv url: http://arxiv.org/abs/2106.09388v1
- Date: Thu, 17 Jun 2021 11:07:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:11:55.044439
- Title: Deep Subdomain Adaptation Network for Image Classification
- Title(参考訳): 画像分類のためのディープサブドメイン適応ネットワーク
- Authors: Yongchun Zhu, Fuzhen Zhuang, Jindong Wang, Guolin Ke, Jingwu Chen,
Jiang Bian, Hui Xiong and Qing He
- Abstract要約: ディープサブドメイン適応ネットワーク(DSAN)は、ドメイン固有のレイヤアクティベーションの関連するサブドメイン分布を調整することで、転送ネットワークを学習する。
我々のDSANは非常に単純だが効果的であり、敵の訓練を必要とせず、迅速に収束する。
実験は、オブジェクト認識タスクと桁分類タスクの両方において顕著な結果を示す。
- 参考スコア(独自算出の注目度): 32.58984565281493
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a target task where labeled data is unavailable, domain adaptation can
transfer a learner from a different source domain. Previous deep domain
adaptation methods mainly learn a global domain shift, i.e., align the global
source and target distributions without considering the relationships between
two subdomains within the same category of different domains, leading to
unsatisfying transfer learning performance without capturing the fine-grained
information. Recently, more and more researchers pay attention to Subdomain
Adaptation which focuses on accurately aligning the distributions of the
relevant subdomains. However, most of them are adversarial methods which
contain several loss functions and converge slowly. Based on this, we present
Deep Subdomain Adaptation Network (DSAN) which learns a transfer network by
aligning the relevant subdomain distributions of domain-specific layer
activations across different domains based on a local maximum mean discrepancy
(LMMD). Our DSAN is very simple but effective which does not need adversarial
training and converges fast. The adaptation can be achieved easily with most
feed-forward network models by extending them with LMMD loss, which can be
trained efficiently via back-propagation. Experiments demonstrate that DSAN can
achieve remarkable results on both object recognition tasks and digit
classification tasks. Our code will be available at:
https://github.com/easezyc/deep-transfer-learning
- Abstract(参考訳): ラベル付きデータが利用できないターゲットタスクでは、異なるソースドメインから学習者を転送することができる。
従来のディープドメイン適応手法は、グローバルドメインシフト、すなわち、異なるドメインの同じカテゴリ内の2つのサブドメイン間の関係を考慮せずに、グローバルソースとターゲットディストリビューションを整合させることを主に学習し、細かな情報を捉えずに転送学習性能を満足させる。
近年,関連するサブドメインの分布を正確に調整することに焦点を当てたサブドメイン適応に注目する研究者が増えている。
しかし、そのほとんどはいくつかの損失関数を含む逆法であり、ゆっくりと収束する。
そこで本研究では,各ドメインにまたがるドメイン固有のレイヤアクティベーションのサブドメイン分布を,ローカルな最大平均不一致(LMMD)に基づいて調整することにより,転送ネットワークを学習するディープサブドメイン適応ネットワーク(DSAN)を提案する。
我々のDSANは非常に単純だが効果的であり、敵の訓練を必要とせず、迅速に収束する。
この適応は、ほとんどのフィードフォワードネットワークモデルにおいて、LMMD損失で拡張することで容易に達成でき、バックプロパゲーションにより効率的に訓練することができる。
DSANはオブジェクト認識タスクと桁分類タスクの両方において顕著な結果が得られることを示した。
私たちのコードは、https://github.com/easezyc/deep-transfer-learningで利用できます。
関連論文リスト
- Multi-modal Instance Refinement for Cross-domain Action Recognition [25.734898762987083]
教師なしのクロスドメインアクション認識は、既存のラベル付きソースドメインでトレーニングされたモデルを新しいラベル付きターゲットドメインに適応させることを目的としている。
強化学習に基づく負の伝達を軽減するために,MMIR法を提案する。
提案手法は,EPIC-Kitchensベンチマークを用いたクロスドメイン動作認識において,他の最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-11-24T05:06:28Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Multilevel Knowledge Transfer for Cross-Domain Object Detection [26.105283273950942]
ドメインシフトは、特定のドメイン(ソース)でトレーニングされたモデルが、異なるドメイン(ターゲット)のサンプルに露出しても、うまく動作しない、よく知られた問題である。
本研究では,オブジェクト検出タスクにおける領域シフト問題に対処する。
私たちのアプローチは、ソースとターゲットドメイン間のドメインシフトを徐々に削除することに依存しています。
論文 参考訳(メタデータ) (2021-08-02T15:24:40Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Alleviating Semantic-level Shift: A Semi-supervised Domain Adaptation
Method for Semantic Segmentation [97.8552697905657]
このタスクの重要な課題は、ソースとターゲットドメイン間のデータ分散の相違を緩和する方法である。
本稿では,グローバルな視点とローカルな視点の両方から分布の整合性を促進できるASS(Alleviating Semantic-level Shift)を提案する。
GTA5、Cityscapes、Synthia、Cityscapesの2つのドメイン適応タスクにASSを適用します。
論文 参考訳(メタデータ) (2020-04-02T03:25:05Z) - Mutual Learning Network for Multi-Source Domain Adaptation [73.25974539191553]
ML-MSDA(Multial Learning Network for Multiple Source Domain Adaptation)を提案する。
相互学習の枠組みのもと,提案手法は対象ドメインと各ソースドメインをペアリングし,条件付き対向ドメイン適応ネットワークを分岐ネットワークとして訓練する。
提案手法は, 比較手法より優れ, 最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-03-29T04:31:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。