論文の概要: Dynamic Instance Domain Adaptation
- arxiv url: http://arxiv.org/abs/2203.05028v1
- Date: Wed, 9 Mar 2022 20:05:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-11 14:38:45.921006
- Title: Dynamic Instance Domain Adaptation
- Title(参考訳): 動的インスタンスドメイン適応
- Authors: Zhongying Deng, Kaiyang Zhou, Da Li, Junjun He, Yi-Zhe Song, Tao Xiang
- Abstract要約: 教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 109.53575039217094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most existing studies on unsupervised domain adaptation (UDA) assume that
each domain's training samples come with domain labels (e.g., painting, photo).
Samples from each domain are assumed to follow the same distribution and the
domain labels are exploited to learn domain-invariant features via feature
alignment. However, such an assumption often does not hold true -- there often
exist numerous finer-grained domains (e.g., dozens of modern painting styles
have been developed, each differing dramatically from those of the classic
styles). Therefore, forcing feature distribution alignment across each
artificially-defined and coarse-grained domain can be ineffective. In this
paper, we address both single-source and multi-source UDA from a completely
different perspective, which is to view each instance as a fine domain. Feature
alignment across domains is thus redundant. Instead, we propose to perform
dynamic instance domain adaptation (DIDA). Concretely, a dynamic neural network
with adaptive convolutional kernels is developed to generate instance-adaptive
residuals to adapt domain-agnostic deep features to each individual instance.
This enables a shared classifier to be applied to both source and target domain
data without relying on any domain annotation. Further, instead of imposing
intricate feature alignment losses, we adopt a simple semi-supervised learning
paradigm using only a cross-entropy loss for both labeled source and pseudo
labeled target data. Our model, dubbed DIDA-Net, achieves state-of-the-art
performance on several commonly used single-source and multi-source UDA
datasets including Digits, Office-Home, DomainNet, Digit-Five, and PACS.
- Abstract(参考訳): 教師なしドメイン適応(UDA)に関する既存の研究は、各ドメインのトレーニングサンプルがドメインラベル(例えば、絵画、写真)を伴っていると仮定している。
各ドメインのサンプルは同じディストリビューションに従っており、ドメインラベルは機能アライメントを通じてドメイン不変の機能を学ぶために利用される。
しかし、そのような仮定はしばしば真ではない——細かな領域が数多く存在することが多い(例えば、数十の近代的な絵画様式が発達し、それぞれが古典様式と劇的に異なる)。
したがって、各人工的かつ粗い領域にまたがる特徴分布の整列を強制することは効果的ではない。
本稿では,単一ソースと複数ソースのUDAをまったく異なる視点から扱い,各インスタンスを細かなドメインとみなす。
したがって、ドメイン間のフィーチャーアライメントは冗長である。
そこで我々は動的インスタンスドメイン適応(DIDA)を提案する。
具体的には、適応畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
これにより、共有分類器は、いかなるドメインアノテーションにも依存せずに、ソースデータとターゲットドメインデータの両方に適用できる。
さらに,ラベル付きソースと擬似ラベル付きターゲットデータの両方に対して,クロスエントロピー損失のみを用いた単純な半教師付き学習パラダイムを採用する。
我々のモデルはDIDA-Netと呼ばれ、Digits、Office-Home、DomainNet、Digit-Five、PACSなど、一般的に使用されている複数の単一ソースおよびマルチソースUDAデータセットに対して最先端のパフォーマンスを実現しています。
関連論文リスト
- Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Discovering Domain Disentanglement for Generalized Multi-source Domain
Adaptation [48.02978226737235]
典型的なマルチソースドメイン適応(MSDA)アプローチは、ラベル付きソースドメインから学習した知識をラベル付きターゲットドメインに転送することを目的としている。
本稿では、各インスタンスのドメイン表現と意味的特徴を分割し、次元的独立性を奨励する変動型ドメイン・アンタングルメント(VDD)フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-11T04:33:08Z) - Aligning Domain-specific Distribution and Classifier for Cross-domain
Classification from Multiple Sources [25.204055330850164]
教師なしドメイン適応のための2つのアライメントステージを持つ新しいフレームワークを提案する。
本手法は画像分類のための一般的なベンチマークデータセットにおいて顕著な結果が得られる。
論文 参考訳(メタデータ) (2022-01-04T06:35:11Z) - Domain Consistency Regularization for Unsupervised Multi-source Domain
Adaptive Classification [57.92800886719651]
近年,深層学習に基づくマルチソース非教師付きドメイン適応(MUDA)が活発に研究されている。
MUDAのドメインシフトは、ソースドメインとターゲットドメインの間だけでなく、複数のソースドメインの間にも存在します。
本稿では、教師なしマルチソースドメイン適応分類において、ドメインの一貫性規則化を利用するエンドツーエンドのトレーニング可能なネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-16T07:29:27Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Dynamic Transfer for Multi-Source Domain Adaptation [82.54405157719641]
モデルパラメータがサンプルに適合する領域の競合に対処するために動的転送を提案する。
ソースドメインの障壁を壊し、マルチソースドメインを単一ソースドメインに変換する。
実験の結果, ドメインラベルを使わずに, 動的移動は最先端の手法よりも3%以上優れていた。
論文 参考訳(メタデータ) (2021-03-19T01:22:12Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。